2. Neural Networks / L2. Implementing Gradient Descent - Backpropagation
Backpropagation - multiple layers와 gradient descent를 이용한 네트워크 학습에대해 더 알아보자. - 우리가 만든 네트워크를 이용하여 최초의 시도로 output을 뽑아낸 뒤, - 얼만큼 이 값이 잘못된지를 반영하여 weights를 다시 설정하여야 하지 않겠는가? - 따라서 input → hidden → output 으로 이어지는 네트워크 flow에서 - weights를 다시 바로잡기위해 역행하며 정보를 전달하는 과정을 Backpropagation이라 함. - gradient descent를 사용하여 hidden layer의 weights를 업데이트하려면 - 각 hidden unit이 최종 output에 얼마나 많은 오차를 남겼는지를 알아야한다. - 각 layer의 o..
Deep Learning
2018. 7. 11. 21:07