티스토리 뷰
Keras Optimizers
- Keras엔 다양한 Optimizer들이 있다. 상세
- 그중에 가장 많이쓰이는것들을 다뤄보면
· SGD
- Stochastic Gradient Descent 를 지칭, 다음과같은 인자를 취함
- Learning rate
- Momentum : local minima에 빠지지 않기위해 이전 단계에서의 가중치가 적용된 평균을 사용
- Nesterov Momentum : solution에 가까워 질 수록 gradient를 slow down시킴
· ADAM
- Adaptive Moment Estimation 을 지칭
- 이전 step에서의 평균뿐 아니라 분산까지 고려한 복잡한 지수 감쇠(exponential decay)를 사용
· RMSProp
- RMS : Root Mean Squeared Error
- 말그대로 지수 감쇠 squared gradients의 평균으로 나눔으로써 learning rate를 감소시킴
'Deep Learning' 카테고리의 다른 글
2. Neural Networks / L8. TensorFlow - Tensor World (0) | 2018.08.14 |
---|---|
2. Neural Networks / L7. Keras - Lab : IMDB Data in Keras (0) | 2018.08.10 |
2. Neural Networks / L7. Keras - Lab : Student Admissions in Keras (1) | 2018.08.09 |
2. Neural Networks / L7. Keras - Keras (0) | 2018.08.07 |
2. Neural Networks / L6. Sentiment Analysis - Sentiment Classification Projects : Curate a Dataset (0) | 2018.07.26 |
댓글