Pytorch Layer层总结
卷积层
nn.Conv1d |
对由多个输入平面组成的输入信号应用一维卷积。 |
|---|---|
nn.Conv2d |
在由多个输入平面组成的输入信号上应用 2D 卷积。 |
nn.Conv3d |
对由多个输入平面组成的输入信号应用 3D 卷积。 |
nn.ConvTranspose1d |
在由多个输入平面组成的输入图像上应用一维转置卷积算子。 |
nn.ConvTranspose2d |
在由多个输入平面组成的输入图像上应用 2D 转置卷积算子。 |
nn.ConvTranspose3d |
在由多个输入平面组成的输入图像上应用 3D 转置卷积算子。 |
nn.LazyConv1d |
从. torch.nn.Conv1d_ in_channels_ Conv1d_input.size(1) |
nn.LazyConv2d |
从. torch.nn.Conv2d_ in_channels_ Conv2d_input.size(1) |
nn.LazyConv3d |
从. torch.nn.Conv3d_ in_channels_ Conv3d_input.size(1) |
nn.LazyConvTranspose1d |
从. torch.nn.ConvTranspose1d_ in_channels_ ConvTranspose1d_input.size(1) |
nn.LazyConvTranspose2d |
从. torch.nn.ConvTranspose2d_ in_channels_ ConvTranspose2d_input.size(1) |
nn.LazyConvTranspose3d |
从. torch.nn.ConvTranspose3d_ in_channels_ ConvTranspose3d_input.size(1) |
nn.Unfold |
从批处理输入张量中提取滑动局部块。 |
nn.Fold |
将一组滑动的局部块组合成一个大的包含张量。 |
池化层
nn.MaxPool1d |
在由多个输入平面组成的输入信号上应用 1D 最大池化。 |
|---|---|
nn.MaxPool2d |
在由多个输入平面组成的输入信号上应用 2D 最大池化。 |
nn.MaxPool3d |
在由多个输入平面组成的输入信号上应用 3D 最大池化。 |
nn.MaxUnpool1d |
计算 的部分逆MaxPool1d。 |
nn.MaxUnpool2d |
计算 的部分逆MaxPool2d。 |
nn.MaxUnpool3d |
计算 的部分逆MaxPool3d。 |
nn.AvgPool1d |
在由多个输入平面组成的输入信号上应用一维平均池化。 |
nn.AvgPool2d |
在由多个输入平面组成的输入信号上应用 2D 平均池化。 |
nn.AvgPool3d |
在由多个输入平面组成的输入信号上应用 3D 平均池化。 |
nn.FractionalMaxPool2d |
在由多个输入平面组成的输入信号上应用 2D 分数最大池化。 |
nn.FractionalMaxPool3d |
在由多个输入平面组成的输入信号上应用 3D 分数最大池化。 |
nn.LPPool1d |
在由多个输入平面组成的输入信号上应用一维功率平均池化。 |
nn.LPPool2d |
在由多个输入平面组成的输入信号上应用 2D 功率平均池化。 |
nn.AdaptiveMaxPool1d |
在由多个输入平面组成的输入信号上应用 1D 自适应最大池化。 |
nn.AdaptiveMaxPool2d |
在由多个输入平面组成的输入信号上应用 2D 自适应最大池化。 |
nn.AdaptiveMaxPool3d |
在由多个输入平面组成的输入信号上应用 3D 自适应最大池化。 |
nn.AdaptiveAvgPool1d |
在由多个输入平面组成的输入信号上应用一维自适应平均池化。 |
nn.AdaptiveAvgPool2d |
在由多个输入平面组成的输入信号上应用 2D 自适应平均池化。 |
nn.AdaptiveAvgPool3d |
在由多个输入平面组成的输入信号上应用 3D 自适应平均池化。 |
填充层
nn.ReflectionPad1d |
使用输入边界的反射填充输入张量。 |
|---|---|
nn.ReflectionPad2d |
使用输入边界的反射填充输入张量。 |
nn.ReflectionPad3d |
使用输入边界的反射填充输入张量。 |
nn.ReplicationPad1d |
使用输入边界的复制填充输入张量。 |
nn.ReplicationPad2d |
使用输入边界的复制填充输入张量。 |
nn.ReplicationPad3d |
使用输入边界的复制填充输入张量。 |
nn.ZeroPad2d |
用零填充输入张量边界。 |
nn.ConstantPad1d |
用一个常数值填充输入张量边界。 |
nn.ConstantPad2d |
用一个常数值填充输入张量边界。 |
nn.ConstantPad3d |
用一个常数值填充输入张量边界。 |
非线性激活(加权和,非线性)
nn.ELU |
如论文所述,按元素应用指数线性单元 (ELU) 函数:通过指数线性单元 (ELU) 进行快速和准确的深度网络学习。 |
|---|---|
nn.Hardshrink |
按元素应用硬收缩 (Hardshrink) 函数。 |
nn.Hardsigmoid |
按元素应用 Hardsigmoid 函数。 |
nn.Hardtanh |
按元素应用 HardTanh 函数。 |
nn.Hardswish |
如本文所述,按元素应用 hardswish 函数: |
nn.LeakyReLU |
应用逐元素函数: |
nn.LogSigmoid |
应用逐元素函数: |
nn.MultiheadAttention |
允许模型共同关注来自不同表示子空间的信息,如论文所述:Attention Is All You Need。 |
nn.PReLU |
应用逐元素函数: |
nn.ReLU |
逐元素应用整流线性单位函数: |
nn.ReLU6 |
应用逐元素函数: |
nn.RReLU |
如本文所述,按元素应用随机泄漏整流线性单元函数: |
nn.SELU |
按元素应用,如: |
nn.CELU |
应用逐元素函数: |
nn.GELU |
应用高斯误差线性单位函数: |
nn.Sigmoid |
应用逐元素函数: |
nn.SiLU |
逐元素应用 Sigmoid 线性单元 (SiLU) 函数。 |
nn.Mish |
逐元素应用 Mish 函数。 |
nn.Softplus |
应用 Softplus 功能\text{Softplus}(x) = \frac{1}{\beta} * \log(1 + \exp(\beta * x))软加( x )=β1日志( 1 _+exp ( βx ))元素方面。 |
nn.Softshrink |
逐元素应用软收缩函数: |
nn.Softsign |
应用逐元素函数: |
nn.Tanh |
逐元素应用双曲正切 (Tanh) 函数。 |
nn.Tanhshrink |
应用逐元素函数: |
nn.Threshold |
阈值输入张量的每个元素。 |
nn.GLU |
应用门控线性单元函数{GLU}(a, b)= a \otimes \sigma(b)葛卢(一, _**b )=一种⊗σ ( b )在哪里一种一种是输入矩阵的前半部分,并且bb是下半场。 |
非线性激活(其他)
nn.Softmin |
将 Softmin 函数应用于 n 维输入 Tensor 重新缩放它们,以便 n 维输出 Tensor 的元素位于[0, 1]范围内并且总和为 1。 |
|---|---|
nn.Softmax |
将 Softmax 函数应用于 n 维输入张量,重新缩放它们,使 n 维输出张量的元素位于 [0,1] 范围内并且总和为 1。 |
nn.Softmax2d |
将 SoftMax 应用于每个空间位置的特征。 |
nn.LogSoftmax |
应用\log(\text{Softmax}(x))日志( Softmax ( x ) )函数到 n 维输入张量。 |
nn.AdaptiveLogSoftmaxWithLoss |
Efficient softmax approximation 如Edouard Grave、Armand Joulin、Moustapha Cissé、David Grangier 和 Hervé Jégou 在 GPU 的 Efficient softmax approximation 中所述。 |
规范化层
nn.RNNBase循环层
nn.RNNBase |
|
|---|---|
nn.RNN |
应用多层 Elman RNN\tanh谭要么\文本{ReLU}ReLU输入序列的非线性。 |
nn.LSTM |
将多层长短期记忆 (LSTM) RNN 应用于输入序列。 |
nn.GRU |
将多层门控循环单元 (GRU) RNN 应用于输入序列。 |
nn.RNNCell |
具有 tanh 或 ReLU 非线性的 Elman RNN 单元。 |
nn.LSTMCell |
长短期记忆 (LSTM) 细胞。 |
nn.GRUCell |
门控循环单元 (GRU) 单元 |
nn.Transformer
nn.Transformer |
变压器模型。 |
|---|---|
nn.TransformerEncoder |
TransformerEncoder 是 N 个编码器层的堆栈 |
nn.TransformerDecoder |
TransformerDecoder 是 N 个解码器层的堆栈 |
nn.TransformerEncoderLayer |
TransformerEncoderLayer 由 self-attn 和前馈网络组成。 |
nn.TransformerDecoderLayer |
TransformerDecoderLayer 由 self-attn、multi-head-attn 和前馈网络组成。 |
线性层
nn.Identity |
对参数不敏感的占位符标识运算符。 |
|---|---|
nn.Linear |
对输入数据应用线性变换:y = xA^T + b是的=一个_吨+b |
nn.Bilinear |
对输入数据应用双线性变换:y = x_1^TA x_2 + b是的=X1吨一个_2+b |
nn.LazyLinear |
推断in_features的torch.nn.Linear模块。 |
Dropout层
nn.Dropout |
p在训练期间,使用来自伯努利分布的样本以概率将输入张量的一些元素随机归零。 |
|---|---|
nn.Dropout2d |
将整个通道随机归零(通道是 2D 特征图,例如,jj-第一个频道一世一世- 批处理输入中的第一个样本是 2D 张量\文本{输入}[i, j]输入[我,Ĵ ])。 |
nn.Dropout3d |
将整个通道随机归零(通道是 3D 特征图,例如,jj-第一个频道一世一世- 批处理输入中的第一个样本是一个 3D 张量\文本{输入}[i, j]输入[我,Ĵ ])。 |
nn.AlphaDropout |
在输入上应用 Alpha Dropout。 |
nn.FeatureAlphaDropout |
随机屏蔽整个通道(通道是特征图,例如 |
稀疏层
nn.Embedding |
一个简单的查找表,用于存储固定字典和大小的嵌入。 |
|---|---|
nn.EmbeddingBag |
计算嵌入“包”的总和或均值,而不实例化中间嵌入。 |
视觉层
nn.PixelShuffle |
重新排列形状张量中的元素(, C \times r^2, H, W)( * ,C×r2,,* _) 到一个形状张量(*, C, H \times r, W \times r)( * ,, ***H×r* ,W×r ), 其中 r 是一个高档因子。 |
|---|---|
nn.PixelUnshuffle |
PixelShuffle通过重新排列形状张量中的元素来反转操作(, C, H \times r, W \times r)( * ,, _**H×r* ,W×r )到一个形状张量(, C \times r^2, H, W)( * ,C×r2,,* _) _, 其中 r 是一个缩小因子。 |
nn.Upsample |
对给定的多通道 1D(时间)、2D(空间)或 3D(体积)数据进行上采样。 |
nn.UpsamplingNearest2d |
对由多个输入通道组成的输入信号应用 2D 最近邻上采样。 |
nn.UpsamplingBilinear2d |
对由多个输入通道组成的输入信号应用 2D 双线性上采样。 |
洗牌层
nn.ChannelShuffle |
将通道划分为形状张量(, C, H, W)( * ,, _**, _)* _分成 g 组并将它们重新排列为(, C \frac g, g, H, W)( * ,C,G**克,,* _) _,同时保持原始张量形状。 |
|---|---|
DataParallel 层(多 GPU,分布式)
nn.DataParallel |
在模块级别实现数据并行。 |
|---|---|
nn.parallel.DistributedDataParallel |
torch.distributed在模块级别实现基于包的分布式数据并行性。 |
Pytorch Layer层总结的更多相关文章
- 如果layer层在iframe下不居中滚动
需要在layer前面加上parent.layer. 2.运用layer层的步骤: 1.引入1.8版本以上的jquery文件 <script type="text/javascript& ...
- 当music-list向上滑动的时候,设置layer层,随其滚动,覆盖图片,往下滚动时候,图片随着展现出来
1.layer层代码: <div class="bg-layer" ref="layer"></div> 2.在mounted()的时候 ...
- 3.4 常用的两种 layer 层 3.7 字体与文本
3.4 常用的两种 layer 层 //在cocos2d-x中,经常使用到的两种 layer 层 : CCLayer 和 CCLayerColor //CCLayer 的创建 CCLayer* la ...
- caffe layer层cpp、cu调试经验和相互关系
对于layer层的cpp文件,你可以用LOG和printf.cout进行调试,cu文件不能使用LOG,可以使用cout,printf. 对于softmaxloss的layer层,既有cpp文件又有cu ...
- ZBrush中Layer层笔刷介绍
本文我们来介绍ZBrush®中的Layer层笔刷,该笔刷是一种类似梯田效果的笔刷,常用来制作鳞甲和花纹图腾.他还可以用一个固定的数值抬高或降低模型的表面,当笔刷在重合时,笔画重叠部分不会再次位移,这使 ...
- Layer层自定义
keras允许自定义Layer层, 大大方便了一些复杂操作的实现. 也方便了一些novel结构的复用, 提高搭建模型的效率. 实现方法 通过继承keras.engine.Layer类, 重写其中的部分 ...
- [Cocos2d-x For WP8]Layer 层
层(CCLayer) 从概念上说,层就是场景里的背景. CCLayer同样是CCNode的子类,通常用addChild方法添加子节点.CCLayer对象定义了可描绘的区域,定义了描绘的规则.C ...
- layer层、modal模拟窗 单独测试页面
layer_test.jsp <%@ page language="java" import="java.util.*" pageEncoding=&qu ...
- 【转载】 Caffe BN+Scale层和Pytorch BN层的对比
原文地址: https://blog.csdn.net/elysion122/article/details/79628587 ------------------------------------ ...
- pytorch RNN层api的几个参数说明
classtorch.nn.RNN(*args, **kwargs) input_size – The number of expected features in the input x hidde ...
随机推荐
- mysql的执行流程
本篇章为构建mysql在执行过程中简单的业务流程,为后续的代码优化和面试构建基础. 1.首先一条sql在执行时sql会通过网络传送给mysql 2.在Mysql收到sql语句后会先在分析器中先判断一下 ...
- 生成文本聚类java实现1
本章主要的学习是中文分词 和两种统计词频(传统词频和TF-IDF算法 ) 的方法. 学习目的:通过N多的新闻标题 or 新闻摘要 or 新闻标签,生成基本的文本聚类,以便统计当天新闻的热点内容. 扩展 ...
- 摒弃传统setInterval, 自己封装一个
传统的setInterval在某种情况下会导致内存泄漏,每次调用都会占用一部分内存空间,既然threejs的更新都是基于# requestAnimationFrame的循环调用,那么我们就可以利用这个 ...
- 【每天学点AI】前向传播、损失函数、反向传播
在深度学习的领域中,前向传播.反向传播和损失函数是构建和训练神经网络模型的三个核心概念.今天,小编将通过一个简单的实例,解释这三个概念,并展示它们的作用. 前向传播:神经网络的"思考&quo ...
- 论文解读《Neural Cleanse: Identifying and Mitigating Backdoor Attacks in Neural Networks》
发表时间:2019 期刊会议:IEEE Symposium on Security and Privacy (S&P) 论文单位:UC Santa Barbara 论文作者:Bolun Wan ...
- .NET Conf China 2024 AI相关内容解析
.NET Conf China 2024中国 .NET 开发者峰会即将在上海召开,这次大会是一届完全由社区组织举办的中国.NET 开发者盛会,我们筹备大会之初就定下了大会的主题是"智能.创新 ...
- MarkDown文档的编写
MarkDown的基本语法 MarkDown的标题语法 通过#进行创建标题,#的数量控制标题的级别 MarkDown的段落语法 通过空白行将一行或者多行文本进行分隔 MarkDown的强调语法 粗 ...
- windows server系统中,Pro运行深度学习工具错误
安装深度学习包后,运行相关工具的时候报错,缺失cv2的模块. 在arcpy执行窗口,直接去引入cv2包的时候,确实发了错误. 查看了相关路径,确认cv2的包,在对应路径已经存在,也有对应的元数据信息, ...
- openEuler欧拉配置MySQL8的MGR单主双从
一. 系统优化(三个节点全部操作) 关闭防火墙 systemctl stop firewalld systemctl disable firewalld 关闭selinux echo "S ...
- 大文件传输与断点续传实现(极简Demo: React+Node.js)
大文件传输与断点续传实现(极简Demo:React+Node.js) 简述 使用React前端和Node.js后端实现大文件传输和断点续传的功能.通过分片上传技术,可以有效地解决网络不稳定带来的传输中 ...