PyTorch 中的乘法:mul()、multiply()、matmul()、mm()、mv()、dot()
torch.mul()
函数功能:逐个对 input
和 other
中对应的元素相乘。
本操作支持广播,因此 input
和 other
均可以是张量或者数字。
举例如下:
>>> import torch
>>> a = torch.randn(3)
>>> a
tensor([-1.7095, 1.7837, 1.1865])
>>> b = 2
>>> torch.mul(a, b)
tensor([-3.4190, 3.5675, 2.3730]) # 这里将 other 扩展成了 input 的形状
>>> a = 3
>>> b = torch.randn(3, 1)
>>> b
tensor([[-0.7705],
[ 1.1177],
[ 1.2447]])
>>> torch.mul(a, b)
tensor([[-2.3116],
[ 3.3530],
[ 3.7341]]) # 这里将 input 扩展成了 other 的形状
>>> a = torch.tensor([[2], [3]])
>>> a
tensor([[2],
[3]]) # a 是 2×1 的张量
>>> b = torch.tensor([-1, 2, 1])
>>> b
tensor([-1, 2, 1]) # b 是 1×3 的张量
>>> torch.mul(a, b)
tensor([[-2, 4, 2],
[-3, 6, 3]])
这个例子中,input
和 output
的形状都不是公共形状,因此两个都需要广播,都变成 2×3 的形状,然后再逐个元素相乘。
$$
\begin{gather}
\begin{pmatrix}
2 \
3
\end{pmatrix}
\Rightarrow
\begin{pmatrix}
2 & 2 & 2 \
3 & 3 & 3
\end{pmatrix}
\ , \
\begin{pmatrix}
-1 & 2 & 1
\end{pmatrix}
\Rightarrow
\begin{pmatrix}
-1 & 2 & 1 \
-1 & 2 & 1
\end{pmatrix}
\
\
\begin{pmatrix}
2 & 2 & 2 \
3 & 3 & 3
\end{pmatrix}
×
\begin{pmatrix}
-1 & 2 & 1 \
-1 & 2 & 1
\end{pmatrix}
\begin{pmatrix}
-2 & 4 & 2 \
-3 & 6 & 3
\end{pmatrix}
\end{gather}
$$
由上述例子可以看出,这种乘法是逐个对应元素相乘,因此 input
和 output
的前后顺序并不影响结果,即 torch.mul(a, b) =torch.mul(b, a)
。
torch.multiply()
torch.mul()
的别称。
torch.dot()
函数功能:计算 input
和 output
的点乘,此函数要求 input
和 output
都必须是一维的张量(其 shape 属性中只有一个值)!并且要求两者元素个数相同!
举例如下:
>>> torch.dot(torch.tensor([2, 3]), torch.tensor([2, 1]))
tensor(7)
>>> torch.dot(torch.tensor([2, 3]), torch.tensor([2, 1, 1])) # 要求两者元素个数相同
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
RuntimeError: inconsistent tensor size, expected tensor [2] and src [3] to have the same number of elements, but got 2 and 3 elements respectively
torch.mm()
函数功能:实现线性代数中的矩阵乘法(matrix multiplication):(n×m)
× (m×p)
= (n×p)
。
本函数不允许广播!
举例如下:
>>> mat1 = torch.randn(2, 3)
>>> mat2 = torch.randn(3, 2)
>>> torch.mm(mat1, mat2)
tensor([[-1.1846, -1.8327],
[ 0.8820, 0.0312]])
torch.mv()
函数功能:实现矩阵和向量(matrix × vector)的乘法,要求 input
的形状为 n×m
,output
为 torch.Size([m])
的一维 tensor。
举例如下:
>>> mat = torch.tensor([[1, 2, 3], [4, 5, 6]])
>>> mat
tensor([[1, 2, 3],
[4, 5, 6]])
>>> vec = torch.tensor([-1, 1, 2])
>>> vec
tensor([-1, 1, 2])
>>> mat.shape
torch.Size([2, 3])
>>> vec.shape
torch.Size([3])
>>> torch.mv(mat, vec)
tensor([ 7, 13])
注意,此函数要求第二个参数是一维 tensor,也即其 ndim
属性值为 1。这里我们要区分清楚张量的 shape
属性和 ndim
属性,前者表示张量的形状,后者表示张量的维度。(线性代数中二维矩阵的维度 m×n
通常理解为这里的形状)
对于 shape
值为 torch.Size([n])
和 torch.Size(1, n)
的张量,前者的 ndim=1
,后者的 ndim=2
,因此前者是可视为线代中的向量,后者可视为线代中的矩阵。
对于 shape
值为 torch.Size([1, n])
和 torch.Size([n, 1])
的张量,它们同样在 Pytorch
中被视为矩阵。例如:
>>> column = torch.tensor([[1], [2]])
>>> row = torch.tensor([3, 4])
>>> column.shape
torch.Size([2, 1]) # 矩阵
>>> row.shape
torch.Size([2]) # 一维张量
>>> matrix = torch.randn(1, 3)
>>> matrix.shape
torch.Size([1, 3]) # 矩阵
对于张量(以及线代中的向量和矩阵)的理解可看这篇博文。
torch.bmm()
函数功能:实现批量的矩阵乘法。
本函数要求 input
和 output
的 ndim
均为 3,且前者形状为 b×n×m
,后者形状为 b×m×p
。可以理解为 input
中包含 b
个形状为 n×m
的矩阵, output
中包含 b
个形状为 m×p
的矩阵,然后第一个 n×m
的矩阵 × 第一个 m×p
的矩阵得到第一个 n×p
的矩阵,第二个……,第 b
个……因此最终得到 b
个形状为 n×p
的矩阵,即最终结果是一个三维张量,形状为 b×n×p
。
举例如下:
>>> batch_matrix_1 = torch.tensor([ [[1, 2], [3, 4], [5, 6]] , [[-1, -2], [-3, -4], [-5, -6]] ])
>>> batch_matrix_1
tensor([[[ 1, 2],
[ 3, 4],
[ 5, 6]],
[[-1, -2],
[-3, -4],
[-5, -6]]])
>>> batch_matrix_1.shape
torch.Size([2, 3, 2])
>>> batch_matrix_2 = torch.tensor([ [[1, 2], [3, 4]], [[1, 2], [3, 4]] ])
>>> bat
batch_matrix_1 batch_matrix_2
>>> batch_matrix_2
tensor([[[1, 2],
[3, 4]],
[[1, 2],
[3, 4]]])
>>> batch_matrix_2.shape
torch.Size([2, 2, 2])
>>> torch.bmm(batch_matrix_1, batch_matrix_2)
tensor([[[ 7, 10],
[ 15, 22],
[ 23, 34]],
[[ -7, -10],
[-15, -22],
[-23, -34]]])
torch.matmul()
torch.matmul()
可以用于 PyTorch
中绝大多数的乘法,在不同的情形下,它与上述各个乘法函数起着相同的作用,具体请看这篇博文
PyTorch 中的乘法:mul()、multiply()、matmul()、mm()、mv()、dot()的更多相关文章
- PyTorch 中 torch.matmul() 函数的文档详解
官方文档 torch.matmul() 函数几乎可以用于所有矩阵/向量相乘的情况,其乘法规则视参与乘法的两个张量的维度而定. 关于 PyTorch 中的其他乘法函数可以看这篇博文,有助于下面各种乘法的 ...
- numpy 和tensorflow 中的乘法
矩阵乘法:tf.matmul() np.dot() ,@ 逐元素乘法:tf.multiply() np.multiply()
- Pytorch中的自编码(autoencoder)
Pytorch中的自编码(autoencoder) 本文资料来源:https://www.bilibili.com/video/av15997678/?p=25 什么是自编码 先压缩原数据.提取出最有 ...
- [转载]Pytorch中nn.Linear module的理解
[转载]Pytorch中nn.Linear module的理解 本文转载并援引全文纯粹是为了构建和分类自己的知识,方便自己未来的查找,没啥其他意思. 这个模块要实现的公式是:y=xAT+*b 来源:h ...
- PyTorch官方中文文档:PyTorch中文文档
PyTorch中文文档 PyTorch是使用GPU和CPU优化的深度学习张量库. 说明 自动求导机制 CUDA语义 扩展PyTorch 多进程最佳实践 序列化语义 Package参考 torch to ...
- PyTorch中ReLU的inplace
0 - inplace 在pytorch中,nn.ReLU(inplace=True)和nn.LeakyReLU(inplace=True)中存在inplace字段.该参数的inplace=True的 ...
- pytorch中tensorboardX的用法
在代码中改好存储Log的路径 命令行中输入 tensorboard --logdir /home/huihua/NewDisk1/PycharmProjects/pytorch-deeplab-xce ...
- Pytorch中RoI pooling layer的几种实现
Faster-RCNN论文中在RoI-Head网络中,将128个RoI区域对应的feature map进行截取,而后利用RoI pooling层输出7*7大小的feature map.在pytorch ...
- pytorch 中的重要模块化接口nn.Module
torch.nn 是专门为神经网络设计的模块化接口,nn构建于autgrad之上,可以用来定义和运行神经网络 nn.Module 是nn中重要的类,包含网络各层的定义,以及forward方法 对于自己 ...
随机推荐
- springMvc 启动过程
转载自https://www.jianshu.com/p/dc64d02e49ac 这里给出一个简洁的文字描述版SpringMVC启动过程: tomcat web容器启动时会去读取web.xml这样的 ...
- hbase region, store, storefile和列簇,的关系
先来一张大图. Hbase上Regionserver的内存分为两个部分,一部分作为Memstore,主要用来写:另外一部分作为BlockCache,主要用于读数据:这里主要介绍写数据的部分,即Mems ...
- fiddler-ios13以上信任证书后无法抓取https包
直接下载fiddler插件原始是不兼容https://telerik-fiddler.s3.amazonaws.com/fiddler/addons/fiddlercertmaker.exe
- Nginx同server配置下配置多个localhost路由地址
nginx多页面路由配置,进入 nginx/conf/nginx.conf: http { ...... server { listen 80; server_name localhost; loca ...
- 第09讲:Flink 状态与容错
Flink系列文章 第01讲:Flink 的应用场景和架构模型 第02讲:Flink 入门程序 WordCount 和 SQL 实现 第03讲:Flink 的编程模型与其他框架比较 第04讲:Flin ...
- 回顾 2021 中国 .NET 开发者峰会
.NET Conf China 2021 是面向开发人员的社区峰会,基于 .NET Conf 2021,庆祝 .NET 6 的发布和回顾过去一年来 .NET 在中国的发展.峰会由来自北京.上海.苏州. ...
- sqlserver查出来的数据丢失
问题描述 今天利用sqlserver查数据,使用了一个ROUND(308.16000, 2)函数,发现在sqlserver工具中显示正常,但是在服务端查出来就会发生精度丢失问题. ROUND和CAST ...
- 【转】JVM--内存区域划分
[原文地址]https://blog.csdn.net/sd4015700/article/details/50109939 Eden Space.Survivor Space.Tenured Gen ...
- 测试前期API未实现时,如何写测试方法
大家在做接口测试的时候可能经历过这种情况,开发出来接口文档后,测试人员就要开始编写接口测试的自动化代码.这时就会用到了mock server,mock server不在这里说了,百度一大堆,想怎么实现 ...
- kubeadm部署安装+dashboard+harbor
kubeadm 部署安装+dashboard+harbor master(2C/4G,cpu核心数要求大于2) 192.168.80.10 docker.kubeadm.kubelet.kubectl ...