均方差损失函数mse_loss()与交叉熵损失函数cross_entropy()

1.均方差损失函数mse_loss()

均方差损失函数是预测数据和原始数据对应点误差的平方和的均值。

\[MSE=\frac{1}{N}( y^`−y)^2
\]

N为样本个数,y'为预测数值,y为正确数值。

代码实例:

import torch
import torch.nn.functional as F if __name__ == '__main__':
data=torch.tensor([1.0,3.0])
loss=F.mse_loss(torch.tensor([1.0,1.0]),data)
print(loss)
# [(1-1)^2+(3-1)^2]/2 = 2 data1=torch.tensor([2.0,3.0])
loss=F.mse_loss(torch.tensor([1.0,1.0]),data1)
print(loss)
# [(2-1)^2+(3-1)^2]/2 = 2.5

输出结果

tensor(2.)
tensor(2.5000)

2.交叉熵损失函数cross_entropy():相比mse_loss()梯度更大了,优化更快了

先引入熵的概念,熵是衡量分布是否稳定的一个概念,衡量一个分布的信息熵的计算公式如下:log默认以2为底

\[Entropy(p)=-\sum_{i=1}^{n} p(i)log p(i)
\]

衡量一个分布的信息熵的实例化代码如下:

import torch

if __name__ == '__main__':
# 交叉熵一般用于分类问题,如果下面四个数据代表四个类别的比例,
# 四个类别的比例都相同,这里的熵很高,就不容易判断。
data=torch.tensor([0.25,0.25,0.25,0.25])
# 输出熵
print('data的熵为',-(data*torch.log2(data)).sum())
# 熵越高,越不容易确定 # 第四个类别的比例为0.97,这里的熵也很低,就比较容易确定。
data1=torch.tensor([0.01,0.01,0.01,0.97])
# 输出熵
print('data1的熵为',-(data1*torch.log2(data1)).sum())
# 熵越低,越容易确定

输出结果

data的熵为 tensor(2.)
data1的熵为 tensor(0.2419)

衡量两个分布的交叉熵的计算公式如下:

\[Entropy(p,q)=-\sum_{i=1}^{n} p(i)log q(i)=Entropy(p)+D_{kl}(p|q)
\]

交叉熵(p,q)=信息熵(p)+相对熵(p|q),相对熵又称为kl散度,散度越小,p分布和q分布就越接近 p(i)代表的是正确值 q(i)代表的是预测值

交叉熵损失函数经常出现在分类问题中,因为分类问题需要计算各类别的概率,所以交叉熵损失函数经常与sigmoid()和softmax()激活函数搭配使用。

pytorch中cross_entropy()函数的简单使用,pytorch中cross_entropy()=softmax()+log()+nll_loss()

import torch
import torch.nn.functional as F
if __name__ == '__main__':
x=torch.randn(1,784)
w=torch.randn(10,784) logits=x@w.t()
# logits.shape=([1,10]) pred=F.softmax(logits,dim=1)
pred_log=torch.log(pred)
print(F.nll_loss(pred_log,torch.tensor([1]))) # cross_entropy(input, target)
print(F.cross_entropy(logits,torch.tensor([1])))

输出结果

tensor(62.0603)
tensor(62.0603)

Pytorch-均方差损失函数和交叉熵损失函数的更多相关文章

  1. [ch03-02] 交叉熵损失函数

    系列博客,原文在笔者所维护的github上:https://aka.ms/beginnerAI, 点击star加星不要吝啬,星越多笔者越努力. 3.2 交叉熵损失函数 交叉熵(Cross Entrop ...

  2. 深度学习基础5:交叉熵损失函数、MSE、CTC损失适用于字识别语音等序列问题、Balanced L1 Loss适用于目标检测

    深度学习基础5:交叉熵损失函数.MSE.CTC损失适用于字识别语音等序列问题.Balanced L1 Loss适用于目标检测 1.交叉熵损失函数 在物理学中,"熵"被用来表示热力学 ...

  3. 深度学习原理与框架-神经网络结构与原理 1.得分函数 2.SVM损失函数 3.正则化惩罚项 4.softmax交叉熵损失函数 5. 最优化问题(前向传播) 6.batch_size(批量更新权重参数) 7.反向传播

    神经网络由各个部分组成 1.得分函数:在进行输出时,对于每一个类别都会输入一个得分值,使用这些得分值可以用来构造出每一个类别的概率值,也可以使用softmax构造类别的概率值,从而构造出loss值, ...

  4. 关于交叉熵损失函数Cross Entropy Loss

    1.说在前面 最近在学习object detection的论文,又遇到交叉熵.高斯混合模型等之类的知识,发现自己没有搞明白这些概念,也从来没有认真总结归纳过,所以觉得自己应该沉下心,对以前的知识做一个 ...

  5. 【转载】深度学习中softmax交叉熵损失函数的理解

    深度学习中softmax交叉熵损失函数的理解 2018-08-11 23:49:43 lilong117194 阅读数 5198更多 分类专栏: Deep learning   版权声明:本文为博主原 ...

  6. softmax交叉熵损失函数求导

    来源:https://www.jianshu.com/p/c02a1fbffad6 简单易懂的softmax交叉熵损失函数求导 来写一个softmax求导的推导过程,不仅可以给自己理清思路,还可以造福 ...

  7. 经典的损失函数:交叉熵和MSE

    经典的损失函数: ①交叉熵(分类问题):判断一个输出向量和期望向量有多接近.交叉熵刻画了两个概率分布之间的距离,他是分类问题中使用比较广泛的一种损失函数.概率分布刻画了不同事件发生的概率. 熵的定义: ...

  8. LR为什么用极大似然估计,损失函数为什么是log损失函数(交叉熵)

    首先,逻辑回归是一个概率模型,不管x取什么值,最后模型的输出也是固定在(0,1)之间,这样就可以代表x取某个值时y是1的概率 这里边的参数就是θ,我们估计参数的时候常用的就是极大似然估计,为什么呢?可 ...

  9. BCE和CE交叉熵损失函数的区别

    首先需要说明的是PyTorch里面的BCELoss和CrossEntropyLoss都是交叉熵,数学本质上是没有区别的,区别在于应用中的细节. BCE适用于0/1二分类,计算公式就是 " - ...

  10. 经典损失函数:交叉熵(附tensorflow)

    每次都是看了就忘,看了就忘,从今天开始,细节开始,推一遍交叉熵. 我的第一篇CSDN,献给你们(有错欢迎指出啊). 一.什么是交叉熵 交叉熵是一个信息论中的概念,它原来是用来估算平均编码长度的.给定两 ...

随机推荐

  1. 推进行业生态发展完善,中国信通院第八批RPA评测工作正式启动

    随着人工智能.云计算.大数据等新兴数字技术的高速发展,数字劳动力应用实践步伐加快,以数字生产力.数字创造力为基础的数字经济占比逐年上升. 近年来,机器人流程自动化(Robotic Process Au ...

  2. 我的闲鱼Python爬虫接单总结和经验,最高600元一单

    最近,我在闲鱼上利用 Python 爬虫技术接了一些任务,想必你一定好奇,通过这样的方式,到底能不能挣钱,能挣多少钱?今天我就来分享一下我的经验和总结. 一.接单经历 之前 Vue 的作者尤大在微博上 ...

  3. 轻松驾驭Python格式化:5个F-String实用技巧分享

    F-String(格式化字符串字面值)是在Python 3.6中引入的,它是一种非常强大且灵活的字符串格式化方法. 它允许你在字符串中嵌入表达式,这些表达式在运行时会被求值并转换为字符串,这种特性使得 ...

  4. Kotlin学习快速入门(9)—— 密封类的使用

    原文地址: Kotlin学习快速入门(9)-- 密封类的使用 - Stars-One的杂货小窝 代码逻辑中,很多时候我们会需要分支语句,来根据数据的情况走不同的处理逻辑,而密封类就是在这种情况下,方便 ...

  5. -Dmaven.multiModuleProjectDirectory system propery is not set解决方案

    myeclipse中使用maven插件的时候,运行run as maven build的时候报错 -Dmaven.multiModuleProjectDirectory system propery ...

  6. Docker 仓库国内镜像源

    1.仓库镜像对应表 原始 镜像 docker.io ***.mirror.aliyuncs.com(点进去登录查看) hub-mirror.c.163.com dockerproxy.com quay ...

  7. NJUPT第二次积分赛小结与视觉部分开源

    NJUPT第二次积分赛小结与视觉部分开源 跟队友连肝一周多积分赛,写了一堆屎山,总算是今天完赛了.结果也还行,80分到手.其实题目是全做完了的,但验收时我nt了没操作好导致丢了不少分,而且整个控制流程 ...

  8. 记录--Vue中如何导出excel表格

    这里给大家分享我在网上总结出来的一些知识,希望对大家有所帮助 一.导出静态数据 1.安装 vue-json-excel npm i vue-json-excel 注意,此插件对node有版本要求,安装 ...

  9. 【干货】Java开发者快速上手.NET指南

    前言 前几天有小伙伴在技术群里发了一个微软官方出的:适用于Java开发人员的.NET快速入门免费电子书,今天大姚来分享一下Java开发者想要快速上手.NET有哪些教程和优质资料. 微软适用于Java开 ...

  10. .NET分布式Orleans - 3 - Grain放置

    在Orleans 7中,Grain放置是指确定将Grain对象放置在Orleans集群中的哪些物理节点上的过程. Grain是Orleans中的基本单位,代表应用程序中的逻辑单元或实体.Grain放置 ...