Pytorch Layer层总结
卷积层
nn.Conv1d |
对由多个输入平面组成的输入信号应用一维卷积。 |
|---|---|
nn.Conv2d |
在由多个输入平面组成的输入信号上应用 2D 卷积。 |
nn.Conv3d |
对由多个输入平面组成的输入信号应用 3D 卷积。 |
nn.ConvTranspose1d |
在由多个输入平面组成的输入图像上应用一维转置卷积算子。 |
nn.ConvTranspose2d |
在由多个输入平面组成的输入图像上应用 2D 转置卷积算子。 |
nn.ConvTranspose3d |
在由多个输入平面组成的输入图像上应用 3D 转置卷积算子。 |
nn.LazyConv1d |
从. torch.nn.Conv1d_ in_channels_ Conv1d_input.size(1) |
nn.LazyConv2d |
从. torch.nn.Conv2d_ in_channels_ Conv2d_input.size(1) |
nn.LazyConv3d |
从. torch.nn.Conv3d_ in_channels_ Conv3d_input.size(1) |
nn.LazyConvTranspose1d |
从. torch.nn.ConvTranspose1d_ in_channels_ ConvTranspose1d_input.size(1) |
nn.LazyConvTranspose2d |
从. torch.nn.ConvTranspose2d_ in_channels_ ConvTranspose2d_input.size(1) |
nn.LazyConvTranspose3d |
从. torch.nn.ConvTranspose3d_ in_channels_ ConvTranspose3d_input.size(1) |
nn.Unfold |
从批处理输入张量中提取滑动局部块。 |
nn.Fold |
将一组滑动的局部块组合成一个大的包含张量。 |
池化层
nn.MaxPool1d |
在由多个输入平面组成的输入信号上应用 1D 最大池化。 |
|---|---|
nn.MaxPool2d |
在由多个输入平面组成的输入信号上应用 2D 最大池化。 |
nn.MaxPool3d |
在由多个输入平面组成的输入信号上应用 3D 最大池化。 |
nn.MaxUnpool1d |
计算 的部分逆MaxPool1d。 |
nn.MaxUnpool2d |
计算 的部分逆MaxPool2d。 |
nn.MaxUnpool3d |
计算 的部分逆MaxPool3d。 |
nn.AvgPool1d |
在由多个输入平面组成的输入信号上应用一维平均池化。 |
nn.AvgPool2d |
在由多个输入平面组成的输入信号上应用 2D 平均池化。 |
nn.AvgPool3d |
在由多个输入平面组成的输入信号上应用 3D 平均池化。 |
nn.FractionalMaxPool2d |
在由多个输入平面组成的输入信号上应用 2D 分数最大池化。 |
nn.FractionalMaxPool3d |
在由多个输入平面组成的输入信号上应用 3D 分数最大池化。 |
nn.LPPool1d |
在由多个输入平面组成的输入信号上应用一维功率平均池化。 |
nn.LPPool2d |
在由多个输入平面组成的输入信号上应用 2D 功率平均池化。 |
nn.AdaptiveMaxPool1d |
在由多个输入平面组成的输入信号上应用 1D 自适应最大池化。 |
nn.AdaptiveMaxPool2d |
在由多个输入平面组成的输入信号上应用 2D 自适应最大池化。 |
nn.AdaptiveMaxPool3d |
在由多个输入平面组成的输入信号上应用 3D 自适应最大池化。 |
nn.AdaptiveAvgPool1d |
在由多个输入平面组成的输入信号上应用一维自适应平均池化。 |
nn.AdaptiveAvgPool2d |
在由多个输入平面组成的输入信号上应用 2D 自适应平均池化。 |
nn.AdaptiveAvgPool3d |
在由多个输入平面组成的输入信号上应用 3D 自适应平均池化。 |
填充层
nn.ReflectionPad1d |
使用输入边界的反射填充输入张量。 |
|---|---|
nn.ReflectionPad2d |
使用输入边界的反射填充输入张量。 |
nn.ReflectionPad3d |
使用输入边界的反射填充输入张量。 |
nn.ReplicationPad1d |
使用输入边界的复制填充输入张量。 |
nn.ReplicationPad2d |
使用输入边界的复制填充输入张量。 |
nn.ReplicationPad3d |
使用输入边界的复制填充输入张量。 |
nn.ZeroPad2d |
用零填充输入张量边界。 |
nn.ConstantPad1d |
用一个常数值填充输入张量边界。 |
nn.ConstantPad2d |
用一个常数值填充输入张量边界。 |
nn.ConstantPad3d |
用一个常数值填充输入张量边界。 |
非线性激活(加权和,非线性)
nn.ELU |
如论文所述,按元素应用指数线性单元 (ELU) 函数:通过指数线性单元 (ELU) 进行快速和准确的深度网络学习。 |
|---|---|
nn.Hardshrink |
按元素应用硬收缩 (Hardshrink) 函数。 |
nn.Hardsigmoid |
按元素应用 Hardsigmoid 函数。 |
nn.Hardtanh |
按元素应用 HardTanh 函数。 |
nn.Hardswish |
如本文所述,按元素应用 hardswish 函数: |
nn.LeakyReLU |
应用逐元素函数: |
nn.LogSigmoid |
应用逐元素函数: |
nn.MultiheadAttention |
允许模型共同关注来自不同表示子空间的信息,如论文所述:Attention Is All You Need。 |
nn.PReLU |
应用逐元素函数: |
nn.ReLU |
逐元素应用整流线性单位函数: |
nn.ReLU6 |
应用逐元素函数: |
nn.RReLU |
如本文所述,按元素应用随机泄漏整流线性单元函数: |
nn.SELU |
按元素应用,如: |
nn.CELU |
应用逐元素函数: |
nn.GELU |
应用高斯误差线性单位函数: |
nn.Sigmoid |
应用逐元素函数: |
nn.SiLU |
逐元素应用 Sigmoid 线性单元 (SiLU) 函数。 |
nn.Mish |
逐元素应用 Mish 函数。 |
nn.Softplus |
应用 Softplus 功能\text{Softplus}(x) = \frac{1}{\beta} * \log(1 + \exp(\beta * x))软加( x )=β1日志( 1 _+exp ( βx ))元素方面。 |
nn.Softshrink |
逐元素应用软收缩函数: |
nn.Softsign |
应用逐元素函数: |
nn.Tanh |
逐元素应用双曲正切 (Tanh) 函数。 |
nn.Tanhshrink |
应用逐元素函数: |
nn.Threshold |
阈值输入张量的每个元素。 |
nn.GLU |
应用门控线性单元函数{GLU}(a, b)= a \otimes \sigma(b)葛卢(一, _**b )=一种⊗σ ( b )在哪里一种一种是输入矩阵的前半部分,并且bb是下半场。 |
非线性激活(其他)
nn.Softmin |
将 Softmin 函数应用于 n 维输入 Tensor 重新缩放它们,以便 n 维输出 Tensor 的元素位于[0, 1]范围内并且总和为 1。 |
|---|---|
nn.Softmax |
将 Softmax 函数应用于 n 维输入张量,重新缩放它们,使 n 维输出张量的元素位于 [0,1] 范围内并且总和为 1。 |
nn.Softmax2d |
将 SoftMax 应用于每个空间位置的特征。 |
nn.LogSoftmax |
应用\log(\text{Softmax}(x))日志( Softmax ( x ) )函数到 n 维输入张量。 |
nn.AdaptiveLogSoftmaxWithLoss |
Efficient softmax approximation 如Edouard Grave、Armand Joulin、Moustapha Cissé、David Grangier 和 Hervé Jégou 在 GPU 的 Efficient softmax approximation 中所述。 |
规范化层
nn.RNNBase循环层
nn.RNNBase |
|
|---|---|
nn.RNN |
应用多层 Elman RNN\tanh谭要么\文本{ReLU}ReLU输入序列的非线性。 |
nn.LSTM |
将多层长短期记忆 (LSTM) RNN 应用于输入序列。 |
nn.GRU |
将多层门控循环单元 (GRU) RNN 应用于输入序列。 |
nn.RNNCell |
具有 tanh 或 ReLU 非线性的 Elman RNN 单元。 |
nn.LSTMCell |
长短期记忆 (LSTM) 细胞。 |
nn.GRUCell |
门控循环单元 (GRU) 单元 |
nn.Transformer
nn.Transformer |
变压器模型。 |
|---|---|
nn.TransformerEncoder |
TransformerEncoder 是 N 个编码器层的堆栈 |
nn.TransformerDecoder |
TransformerDecoder 是 N 个解码器层的堆栈 |
nn.TransformerEncoderLayer |
TransformerEncoderLayer 由 self-attn 和前馈网络组成。 |
nn.TransformerDecoderLayer |
TransformerDecoderLayer 由 self-attn、multi-head-attn 和前馈网络组成。 |
线性层
nn.Identity |
对参数不敏感的占位符标识运算符。 |
|---|---|
nn.Linear |
对输入数据应用线性变换:y = xA^T + b是的=一个_吨+b |
nn.Bilinear |
对输入数据应用双线性变换:y = x_1^TA x_2 + b是的=X1吨一个_2+b |
nn.LazyLinear |
推断in_features的torch.nn.Linear模块。 |
Dropout层
nn.Dropout |
p在训练期间,使用来自伯努利分布的样本以概率将输入张量的一些元素随机归零。 |
|---|---|
nn.Dropout2d |
将整个通道随机归零(通道是 2D 特征图,例如,jj-第一个频道一世一世- 批处理输入中的第一个样本是 2D 张量\文本{输入}[i, j]输入[我,Ĵ ])。 |
nn.Dropout3d |
将整个通道随机归零(通道是 3D 特征图,例如,jj-第一个频道一世一世- 批处理输入中的第一个样本是一个 3D 张量\文本{输入}[i, j]输入[我,Ĵ ])。 |
nn.AlphaDropout |
在输入上应用 Alpha Dropout。 |
nn.FeatureAlphaDropout |
随机屏蔽整个通道(通道是特征图,例如 |
稀疏层
nn.Embedding |
一个简单的查找表,用于存储固定字典和大小的嵌入。 |
|---|---|
nn.EmbeddingBag |
计算嵌入“包”的总和或均值,而不实例化中间嵌入。 |
视觉层
nn.PixelShuffle |
重新排列形状张量中的元素(, C \times r^2, H, W)( * ,C×r2,,* _) 到一个形状张量(*, C, H \times r, W \times r)( * ,, ***H×r* ,W×r ), 其中 r 是一个高档因子。 |
|---|---|
nn.PixelUnshuffle |
PixelShuffle通过重新排列形状张量中的元素来反转操作(, C, H \times r, W \times r)( * ,, _**H×r* ,W×r )到一个形状张量(, C \times r^2, H, W)( * ,C×r2,,* _) _, 其中 r 是一个缩小因子。 |
nn.Upsample |
对给定的多通道 1D(时间)、2D(空间)或 3D(体积)数据进行上采样。 |
nn.UpsamplingNearest2d |
对由多个输入通道组成的输入信号应用 2D 最近邻上采样。 |
nn.UpsamplingBilinear2d |
对由多个输入通道组成的输入信号应用 2D 双线性上采样。 |
洗牌层
nn.ChannelShuffle |
将通道划分为形状张量(, C, H, W)( * ,, _**, _)* _分成 g 组并将它们重新排列为(, C \frac g, g, H, W)( * ,C,G**克,,* _) _,同时保持原始张量形状。 |
|---|---|
DataParallel 层(多 GPU,分布式)
nn.DataParallel |
在模块级别实现数据并行。 |
|---|---|
nn.parallel.DistributedDataParallel |
torch.distributed在模块级别实现基于包的分布式数据并行性。 |
Pytorch Layer层总结的更多相关文章
- 如果layer层在iframe下不居中滚动
需要在layer前面加上parent.layer. 2.运用layer层的步骤: 1.引入1.8版本以上的jquery文件 <script type="text/javascript& ...
- 当music-list向上滑动的时候,设置layer层,随其滚动,覆盖图片,往下滚动时候,图片随着展现出来
1.layer层代码: <div class="bg-layer" ref="layer"></div> 2.在mounted()的时候 ...
- 3.4 常用的两种 layer 层 3.7 字体与文本
3.4 常用的两种 layer 层 //在cocos2d-x中,经常使用到的两种 layer 层 : CCLayer 和 CCLayerColor //CCLayer 的创建 CCLayer* la ...
- caffe layer层cpp、cu调试经验和相互关系
对于layer层的cpp文件,你可以用LOG和printf.cout进行调试,cu文件不能使用LOG,可以使用cout,printf. 对于softmaxloss的layer层,既有cpp文件又有cu ...
- ZBrush中Layer层笔刷介绍
本文我们来介绍ZBrush®中的Layer层笔刷,该笔刷是一种类似梯田效果的笔刷,常用来制作鳞甲和花纹图腾.他还可以用一个固定的数值抬高或降低模型的表面,当笔刷在重合时,笔画重叠部分不会再次位移,这使 ...
- Layer层自定义
keras允许自定义Layer层, 大大方便了一些复杂操作的实现. 也方便了一些novel结构的复用, 提高搭建模型的效率. 实现方法 通过继承keras.engine.Layer类, 重写其中的部分 ...
- [Cocos2d-x For WP8]Layer 层
层(CCLayer) 从概念上说,层就是场景里的背景. CCLayer同样是CCNode的子类,通常用addChild方法添加子节点.CCLayer对象定义了可描绘的区域,定义了描绘的规则.C ...
- layer层、modal模拟窗 单独测试页面
layer_test.jsp <%@ page language="java" import="java.util.*" pageEncoding=&qu ...
- 【转载】 Caffe BN+Scale层和Pytorch BN层的对比
原文地址: https://blog.csdn.net/elysion122/article/details/79628587 ------------------------------------ ...
- pytorch RNN层api的几个参数说明
classtorch.nn.RNN(*args, **kwargs) input_size – The number of expected features in the input x hidde ...
随机推荐
- CF1187E 题解
Title translation 给定一棵 \(n\) 个点的树,初始全是白点. 要做 \(n\) 步操作,每一次选定一个与一个黑点相隔一条边的白点,将它染成黑点,然后获得该白点被染色前所在的白色联 ...
- 华为云-容器引擎CCE-部署Nginx应用
环境准备 注册华为云账号 复制下面地址到浏览器地址栏(https://reg.huaweicloud.com/registerui/cn/register.html?fromacct=c76cea9f ...
- Nuxt.js 应用中的 build:manifest 事件钩子详解
title: Nuxt.js 应用中的 build:manifest 事件钩子详解 date: 2024/10/22 updated: 2024/10/22 author: cmdragon exce ...
- Linux利用crontab命令定时任务
系统配置文件/etc 系统周期性所要执行的工作,比如写缓存数据到硬盘.日志清理等.在/etc目录下有一个crontab文件,这个就是系统任务调度的配置文件. /etc/crontab文件大概包括下面几 ...
- Java基础综合项目(ATM系统)
文章目录 1.ATM项目介绍 2.项目架构搭建.欢迎界面设计 3.开户功能实现 4.生成卡号 5.登录功能 6.展示用户操作界面 7.查询账户.退出 8.存款 9.取款 10.转账 11.修改密码 1 ...
- C240731B
B 游戏类问题 先假设一瓶毒药都不用, 先把治疗的贡献加进答案里面,这样治疗.毒药.攻击的贡献分别是独立的. 如果 \(i\) 位置本来是治疗, 那么用毒药多扣的血是 \(a[i]=(p+r) \ti ...
- 基于木舟平台浅谈surging 的热点KEY的解决方法
一.概述 上篇文章介绍了基于surging的木舟平台如何构建起微服务,那么此篇文章将介绍基于木舟平台浅谈surging 的热点KEY的解决方法 木舟 (Kayak) 是什么? 木舟(Kayak)是基于 ...
- 解读Graph+AI白皮书:LLM浪潮下,Graph尚有何为?
历时半年,由蚂蚁集团和之江实验室牵头,联合北京邮电大学.浙江大学.西湖大学.东北大学.杭州悦数科技.浙江创邻科技.北京大学.北京交通大学.复旦大学.北京海致星图科技.腾讯.信雅达科技.北京枫清科技等单 ...
- 关于 java.util.concurrent.RejectedExecutionException
遇到java.util.concurrent.RejectedExecutionException 目前看来,最主要有2种原因. 第一: 你的线程池ThreadPoolExecutor 显示的shut ...
- .NET9 EFcore支持早期MSSQL数据库 ROW_NUMBER()分页
前言 NET程序员是很幸福的,MS在上个月发布了NET9.0RTM,带来了不少的新特性,但是呢,我们是不是还有很多同学软硬件都还没更上,比如,自己的电脑还在跑Win7,公司服务器还在跑MSSQL200 ...