티스토리 뷰

Cross Entropy in TensorFlow

 - softmax 함수와 마찬가지로 텐서플로우에선 크로스 엔트로피 계산이 함수화 되어있다.

 - 텐서플로우에서 크로스 엔트로피 함수를 생성하려면

 - tf.reduce_sum(), tf.log() 이 두가지 함수를 사용해야한다.




Reduce Sum

 - tf.reduce_sum() 함수는 숫자들의 배열을 받아 그 합을 리턴해준다.




Natural Log

 - tf.log() 함수는 특정 숫자의 자연로그를 취한 결과값을 리턴해줌






<quiz.py>

 - softmax_data 와 one_hot_encod_label을 사용하여 cross entropy를 출력

1
2
3
4
5
6
7
8
9
10
11
12
13
import tensorflow as tf
 
softmax_data = [0.70.20.1]
one_hot_data = [1.00.00.0]
 
softmax = tf.placeholder(tf.float32)
one_hot = tf.placeholder(tf.float32)
 
# ToDo: Print cross entropy from session
cross_entropy = -tf.reduce_sum(tf.multiply(one_hot, tf.log(softmax)))
 
with tf.Session() as sess:
    print(sess.run(cross_entropy, feed_dict={softmax: softmax_data, one_hot: one_hot_data}))
cs


댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
more
«   2024/03   »
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31
글 보관함