tensorflow中交叉熵损失函数详解
1 前言
tensorflow中定义了3个交叉熵损失函数:
- softmax_cross_entropy_with_logits(logits, labels)
- softmax_cross_entropy_with_logits_v2(logits, labels)
- sparse_softmax_cross_entropy_with_logits(logits, labels)
其中logits都是未经激活函数(sigmoid、tanh、relu)和softmax放缩后的神经网络输出值,labels为样本标签(真实值);
1和2应用差不多,函数1不太严格,在新版本中将被淘汰,不建议使用;
1和2中,logits和labels维数相同,并且labels采用one-hots编码,比如mnist数据集中,有3个样本标签[1 5 8],采用one-hot编码为:[[0 1 0 0 0 0 0 0 0 0], [0 0 0 0 0 1 0 0 0 0], [0 0 0 0 0 0 0 0 1 0]],如果labels不是采用one-hot编码,需要采用tf.one_hot(y, 10) 函数转换为one-hot编码格式;
3中,logits和labels维数不相同,labels没有采用one-hot编码,若已编码,需采用tf.argmax(y,1) 还原为原格式;
这3个函数都封装了如下两个函数:
- y_=softmax(z) (z为神经网络输出值)
- cross_entropy=-ylog(y_) (y为标签)
2 实验
import tensorflow as tf
#真实值(标签值)
y=tf.constant([[1.,0.,0.],[0.,1.,0.],[0.,0.,1.],[1.,0.,0.]])
#未经激活函数和softmax放缩后的神经网络输出值
z=tf.constant([[1.,5.,9.],[8.,7.,3.],[6.,7.,5.],[2.,8.,4.]])
#使用softmax(z)函数和-y*log(y_)函数计算交叉熵
y_=tf.nn.softmax(z)
cross_entropy1 =-y*tf.log(y_)
#计算cross_entropy1的行和
cross_entropy12=tf.reduce_sum(cross_entropy1,1)
#使用softmax_cross_entropy_with_logits函数计算交叉熵
cross_entropy2=tf.nn.softmax_cross_entropy_with_logits(logits=z, labels=y)
#使用softmax_cross_entropy_with_logits_v2函数计算交叉熵
cross_entropy3=tf.nn.softmax_cross_entropy_with_logits_v2(logits=z, labels=y)
#使用sparse_softmax_cross_entropy_with_logits函数计算交叉熵
cross_entropy4=tf.nn.sparse_softmax_cross_entropy_with_logits(logits=z, labels=tf.argmax(y,1))
with tf.Session() as sess:
c1=sess.run(cross_entropy1)
c12=sess.run(cross_entropy12)
c2=sess.run(cross_entropy2)
c3=sess.run(cross_entropy3)
c4=sess.run(cross_entropy4)
print("使用softmax(z)函数和-y*log(y_)函数计算交叉熵:\n",c1)
print("行和:\n",c12)
print("\n使用softmax_cross_entropy_with_logits函数计算交叉熵:\n",c2)
print("\n使用softmax_cross_entropy_with_logits_v2函数计算交叉熵:\n",c3)
print("\n使用sparse_softmax_cross_entropy_with_logits函数计算交叉熵:\n",c4)


3 注意事项
在进行分类时,网络输出值z并不是最终的类别,需要进行如下操作:
#softmax压缩变换
y_=tf.softmax(z)
#精确度
correct_prediction=tf.equal(tf.argmax(y_,1),tf.argmax(y,1))
accuracy=tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
由于softmax()只是将数据整体压缩,并不改变数据的相对大小,因此,一些教材或网课在计算预测分类和精确度时,为简化计算,省去了softmax函数,如下:
#精确度
correct_prediction=tf.equal(tf.argmax(z,1),tf.argmax(y,1))
accuracy=tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
声明:本文转自tensorflow中交叉熵损失函数详解
tensorflow中交叉熵损失函数详解的更多相关文章
- 【转载】深度学习中softmax交叉熵损失函数的理解
深度学习中softmax交叉熵损失函数的理解 2018-08-11 23:49:43 lilong117194 阅读数 5198更多 分类专栏: Deep learning 版权声明:本文为博主原 ...
- 深度学习中交叉熵和KL散度和最大似然估计之间的关系
机器学习的面试题中经常会被问到交叉熵(cross entropy)和最大似然估计(MLE)或者KL散度有什么关系,查了一些资料发现优化这3个东西其实是等价的. 熵和交叉熵 提到交叉熵就需要了解下信息论 ...
- linux-2.6.26内核中ARM中断实现详解(转)
转载:http://www.cnblogs.com/leaven/archive/2010/08/06/1794293.html 更多文档参见:http://pan.baidu.com/s/1dDvJ ...
- 深度学习原理与框架-神经网络结构与原理 1.得分函数 2.SVM损失函数 3.正则化惩罚项 4.softmax交叉熵损失函数 5. 最优化问题(前向传播) 6.batch_size(批量更新权重参数) 7.反向传播
神经网络由各个部分组成 1.得分函数:在进行输出时,对于每一个类别都会输入一个得分值,使用这些得分值可以用来构造出每一个类别的概率值,也可以使用softmax构造类别的概率值,从而构造出loss值, ...
- Win10 TensorFlow(gpu)安装详解
Win10 TensorFlow(gpu)安装详解 写在前面:TensorFlow是谷歌基于DistBelief进行研发的第二代人工智能学习系统,其命名来源于本身的运行原理.Tensor(张量)意味着 ...
- (转)Win10 TensorFlow(gpu)安装详解
Win10 TensorFlow(gpu)安装详解 写在前面:TensorFlow是谷歌基于DistBelief进行研发的第二代人工智能学习系统,其命名来源于本身的运行原理.Tensor(张量)意味着 ...
- [ch03-02] 交叉熵损失函数
系列博客,原文在笔者所维护的github上:https://aka.ms/beginnerAI, 点击star加星不要吝啬,星越多笔者越努力. 3.2 交叉熵损失函数 交叉熵(Cross Entrop ...
- 关于交叉熵损失函数Cross Entropy Loss
1.说在前面 最近在学习object detection的论文,又遇到交叉熵.高斯混合模型等之类的知识,发现自己没有搞明白这些概念,也从来没有认真总结归纳过,所以觉得自己应该沉下心,对以前的知识做一个 ...
- softmax交叉熵损失函数求导
来源:https://www.jianshu.com/p/c02a1fbffad6 简单易懂的softmax交叉熵损失函数求导 来写一个softmax求导的推导过程,不仅可以给自己理清思路,还可以造福 ...
- 深度学习基础5:交叉熵损失函数、MSE、CTC损失适用于字识别语音等序列问题、Balanced L1 Loss适用于目标检测
深度学习基础5:交叉熵损失函数.MSE.CTC损失适用于字识别语音等序列问题.Balanced L1 Loss适用于目标检测 1.交叉熵损失函数 在物理学中,"熵"被用来表示热力学 ...
随机推荐
- [转帖]TiDB的使用限制
https://docs.pingcap.com/zh/tidb/stable/tidb-limitations 本文会将详细描述 TiDB 中常见的使用限制,包括:标识符长度,最大支持的数据库.表. ...
- [转帖]ls 只显示目录
https://www.cnblogs.com/lavin/p/5912369.html 只显示目录: ls -d */ 在实际应用中,我们有时需要仅列出目录,下面是 4 种不同的方法. 1. 利用 ...
- [转帖]使用 TiFlash
TiDB试用 来源:TiDB 浏览 490 扫码 分享 2021-04-20 20:57:48 使用 TiFlash 按表构建 TiFlash 副本 查看表同步进度 使用 TiDB 读取 TiFla ...
- [转帖]正则表达式及在Jmeter中的应用
目录 1.正则表达式 1.1 什么是正则表达式 1.2 为什么使用正则表达式 2.语法 2.1 普通字符 2.2 限定符 2.3 非打印字符 2.4 特殊字符 2.5 定位符 2.6 修饰符(标记) ...
- [转帖]浅谈RAID写惩罚(Write Penalty)与IOPS计算
https://www.dell.com/community/%E6%95%B0%E6%8D%AE%E5%AD%98%E5%82%A8%E5%92%8C%E4%BF%9D%E6%8A%A4-%E8%B ...
- [转帖]kafka 配置认证与授权
https://www.cnblogs.com/yjt1993/p/14739130.html 本例不使用kerberos做认证,使用用户名和密码的方式来进行认证 1.服务端配置 1.0 配置serv ...
- [转帖]Windows磁盘性能压测(1)-DiskSpd
http://www.manongjc.com/detail/59-xrydhtisrajqsxn.html 本文章向大家介绍Windows磁盘性能压测(1)-DiskSpd,主要内容包括其使用实例. ...
- 【解决了一个小问题】vm-agent中,如何对envoy这样的特殊expoter路径做处理?
作者:张富春(ahfuzhang),转载时请注明作者和引用链接,谢谢! cnblogs博客 zhihu Github 公众号:一本正经的瞎扯 envoy这个组件的expoter路径为 /stats/p ...
- P7031 [NWRRC2016] Anniversary Cake
题目简述 有一块 \(n \times m\) 的长方形蛋糕.蛋糕上有两个蜡烛,分别用 \((x_1,y_1)\) 和 \((x_2,y_2)\) 表示.现在有一把刀要把蛋糕切成两半,请问切入的终点和 ...
- 窗口管理器 dwm安装
上一篇博文中,已经完成了archlinux的安装,但是进去仅仅是一个冰冷冷的交互式命令窗口.没有图像,也无法打开浏览器.离日常使用还差的很远,接下来首先需要做的就是安装桌面环境.这里我不打算使用诸如g ...