Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

tf_2.x 버전 7장 decay learning rate 소스코드 관련 의견입니다. #34

Open
hgstyler opened this issue Jun 28, 2022 · 0 comments

Comments

@hgstyler
Copy link

이제 막 시작하는 단계에서 강의자료 및 깃허브 자료는 정말 잘 보고 있습니다.

7장에서 보다 나은 학습방법을 위한 몇 가지 팁을 전달하고 계신데요,
Learning rate decay 기법을 이용한 소스코드의 tf 2.x 버전 의 마지막 출력줄에 대한 의견입니다.
구버전에서는 마지막 출력줄에 decayed learning rate를 출력하셨는데 2.x 버전에서는 빠져 있더라고요.

기존 코드의 마지막줄인 아래내용을,

print("Iter: {}, Loss: {:.4f}".format(step, loss_value))

아래와 같이 수정하면 decayed learning rate를 출력하게 해봤습니다.

print("Iter: {}, Loss: {:.4f}, Learning Rate: {:.8f}".format(step, loss_value, learning_rate(step)))

이번 장의 최종 결과물 같은 것인데 빠져있어서 의견 남겨보았습니다.

제가 수정한 부분이 맞는 것인지 확인부탁드리고, 반영도 되었으면 좋겠습니다!

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

1 participant