Cross Entropy in TensorFlow - softmax 함수와 마찬가지로 텐서플로우에선 크로스 엔트로피 계산이 함수화 되어있다. - 텐서플로우에서 크로스 엔트로피 함수를 생성하려면 - tf.reduce_sum(), tf.log() 이 두가지 함수를 사용해야한다. Reduce Sum - tf.reduce_sum() 함수는 숫자들의 배열을 받아 그 합을 리턴해준다. Natural Log - tf.log() 함수는 특정 숫자의 자연로그를 취한 결과값을 리턴해줌 - softmax_data 와 one_hot_encod_label을 사용하여 cross entropy를 출력12345678910111213import tensorflow as tf softmax_data = [0.7, 0.2, 0.1]one..
TensorFlow Softmax - softmax 함수는 logits 또는 logit score라고 하는 입력을 0에서 1사이 값으로 채우고 - 그 모든 logits의 합이 1이 되도록 output을 정규화 한다. - 즉, softmax 함수의 출력은 범주형 확률분포(categorical probability distribution)와 같다. - 이 softmax 함수는 다중 클래스들을 예측할 때 output activation으로 사용하기 적절하다. - 텐서플로우를 사용하여 softmax 함수를 쓰려면 다음과 같이 해주면 된다. - tf.nn.softmax() 함수는 logits을 받아서 softmax activation을 리턴해준다. 1234567891011121314import tensorflow..