We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
이제 막 시작하는 단계에서 강의자료 및 깃허브 자료는 정말 잘 보고 있습니다.
7장에서 보다 나은 학습방법을 위한 몇 가지 팁을 전달하고 계신데요, Learning rate decay 기법을 이용한 소스코드의 tf 2.x 버전 의 마지막 출력줄에 대한 의견입니다. 구버전에서는 마지막 출력줄에 decayed learning rate를 출력하셨는데 2.x 버전에서는 빠져 있더라고요.
기존 코드의 마지막줄인 아래내용을,
print("Iter: {}, Loss: {:.4f}".format(step, loss_value))
아래와 같이 수정하면 decayed learning rate를 출력하게 해봤습니다.
print("Iter: {}, Loss: {:.4f}, Learning Rate: {:.8f}".format(step, loss_value, learning_rate(step)))
이번 장의 최종 결과물 같은 것인데 빠져있어서 의견 남겨보았습니다.
제가 수정한 부분이 맞는 것인지 확인부탁드리고, 반영도 되었으면 좋겠습니다!
The text was updated successfully, but these errors were encountered:
No branches or pull requests
이제 막 시작하는 단계에서 강의자료 및 깃허브 자료는 정말 잘 보고 있습니다.
7장에서 보다 나은 학습방법을 위한 몇 가지 팁을 전달하고 계신데요,
Learning rate decay 기법을 이용한 소스코드의 tf 2.x 버전 의 마지막 출력줄에 대한 의견입니다.
구버전에서는 마지막 출력줄에 decayed learning rate를 출력하셨는데 2.x 버전에서는 빠져 있더라고요.
기존 코드의 마지막줄인 아래내용을,
아래와 같이 수정하면 decayed learning rate를 출력하게 해봤습니다.
이번 장의 최종 결과물 같은 것인데 빠져있어서 의견 남겨보았습니다.
제가 수정한 부분이 맞는 것인지 확인부탁드리고, 반영도 되었으면 좋겠습니다!
The text was updated successfully, but these errors were encountered: