热门标签 | HotTags
当前位置:  开发笔记 > 前端 > 正文

TensorFlow—softmax_cross_entropy_with_logits函数详解

softmax_cross_entropy_with_logits函数原型:

 

tf.nn.softmax_cross_entropy_with_logits(labels=y, logits=pred, name=None)
函数功能:计算最后一层是softmax层的cross entropy,把softmax计算与cross entropy计算放到一起了,用一个函数来实现,用来提高程序的运行速度。

参数name:该操作的name

参数labels:shape是[batch_size, num_classes],神经网络期望输出。

 

参数logits:shape是[batch_size, num_classes] ,神经网络最后一层的输入。

具体的执行流程大概分为两步:

第一步是对网络最后一层的输出做一个softmax,这一步通常是求取输出属于某一类的概率,对于单样本而言,输出就是一个 num_classes 大小的向量([Y1,Y2,Y3,...]其中Y1,Y2,Y3,...分别代表了是属于该类的概率)

TensorFlow—softmax_cross_entropy_with_logits函数详解

第二步是softmax的输出向量[Y1,Y2,Y3,...]和样本的实际标签做一个交叉熵,

TensorFlow—softmax_cross_entropy_with_logits函数详解

TensorFlow—softmax_cross_entropy_with_logits函数详解指实际标签中第i个的值;

TensorFlow—softmax_cross_entropy_with_logits函数详解softmax的输出向量[Y1,Y2,Y3...]中,第i个元素的值。

 

总之,tensorflow之所以把softmax和cross entropy放到一个函数里计算,就是为了提高运算速度。

 

转载:https://blog.csdn.net/qiqiaiairen/article/details/53169002


推荐阅读
author-avatar
成都迅捷代驾
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有