Pytorch Layer层总结
卷积层
nn.Conv1d |
对由多个输入平面组成的输入信号应用一维卷积。 |
|---|---|
nn.Conv2d |
在由多个输入平面组成的输入信号上应用 2D 卷积。 |
nn.Conv3d |
对由多个输入平面组成的输入信号应用 3D 卷积。 |
nn.ConvTranspose1d |
在由多个输入平面组成的输入图像上应用一维转置卷积算子。 |
nn.ConvTranspose2d |
在由多个输入平面组成的输入图像上应用 2D 转置卷积算子。 |
nn.ConvTranspose3d |
在由多个输入平面组成的输入图像上应用 3D 转置卷积算子。 |
nn.LazyConv1d |
从. torch.nn.Conv1d_ in_channels_ Conv1d_input.size(1) |
nn.LazyConv2d |
从. torch.nn.Conv2d_ in_channels_ Conv2d_input.size(1) |
nn.LazyConv3d |
从. torch.nn.Conv3d_ in_channels_ Conv3d_input.size(1) |
nn.LazyConvTranspose1d |
从. torch.nn.ConvTranspose1d_ in_channels_ ConvTranspose1d_input.size(1) |
nn.LazyConvTranspose2d |
从. torch.nn.ConvTranspose2d_ in_channels_ ConvTranspose2d_input.size(1) |
nn.LazyConvTranspose3d |
从. torch.nn.ConvTranspose3d_ in_channels_ ConvTranspose3d_input.size(1) |
nn.Unfold |
从批处理输入张量中提取滑动局部块。 |
nn.Fold |
将一组滑动的局部块组合成一个大的包含张量。 |
池化层
nn.MaxPool1d |
在由多个输入平面组成的输入信号上应用 1D 最大池化。 |
|---|---|
nn.MaxPool2d |
在由多个输入平面组成的输入信号上应用 2D 最大池化。 |
nn.MaxPool3d |
在由多个输入平面组成的输入信号上应用 3D 最大池化。 |
nn.MaxUnpool1d |
计算 的部分逆MaxPool1d。 |
nn.MaxUnpool2d |
计算 的部分逆MaxPool2d。 |
nn.MaxUnpool3d |
计算 的部分逆MaxPool3d。 |
nn.AvgPool1d |
在由多个输入平面组成的输入信号上应用一维平均池化。 |
nn.AvgPool2d |
在由多个输入平面组成的输入信号上应用 2D 平均池化。 |
nn.AvgPool3d |
在由多个输入平面组成的输入信号上应用 3D 平均池化。 |
nn.FractionalMaxPool2d |
在由多个输入平面组成的输入信号上应用 2D 分数最大池化。 |
nn.FractionalMaxPool3d |
在由多个输入平面组成的输入信号上应用 3D 分数最大池化。 |
nn.LPPool1d |
在由多个输入平面组成的输入信号上应用一维功率平均池化。 |
nn.LPPool2d |
在由多个输入平面组成的输入信号上应用 2D 功率平均池化。 |
nn.AdaptiveMaxPool1d |
在由多个输入平面组成的输入信号上应用 1D 自适应最大池化。 |
nn.AdaptiveMaxPool2d |
在由多个输入平面组成的输入信号上应用 2D 自适应最大池化。 |
nn.AdaptiveMaxPool3d |
在由多个输入平面组成的输入信号上应用 3D 自适应最大池化。 |
nn.AdaptiveAvgPool1d |
在由多个输入平面组成的输入信号上应用一维自适应平均池化。 |
nn.AdaptiveAvgPool2d |
在由多个输入平面组成的输入信号上应用 2D 自适应平均池化。 |
nn.AdaptiveAvgPool3d |
在由多个输入平面组成的输入信号上应用 3D 自适应平均池化。 |
填充层
nn.ReflectionPad1d |
使用输入边界的反射填充输入张量。 |
|---|---|
nn.ReflectionPad2d |
使用输入边界的反射填充输入张量。 |
nn.ReflectionPad3d |
使用输入边界的反射填充输入张量。 |
nn.ReplicationPad1d |
使用输入边界的复制填充输入张量。 |
nn.ReplicationPad2d |
使用输入边界的复制填充输入张量。 |
nn.ReplicationPad3d |
使用输入边界的复制填充输入张量。 |
nn.ZeroPad2d |
用零填充输入张量边界。 |
nn.ConstantPad1d |
用一个常数值填充输入张量边界。 |
nn.ConstantPad2d |
用一个常数值填充输入张量边界。 |
nn.ConstantPad3d |
用一个常数值填充输入张量边界。 |
非线性激活(加权和,非线性)
nn.ELU |
如论文所述,按元素应用指数线性单元 (ELU) 函数:通过指数线性单元 (ELU) 进行快速和准确的深度网络学习。 |
|---|---|
nn.Hardshrink |
按元素应用硬收缩 (Hardshrink) 函数。 |
nn.Hardsigmoid |
按元素应用 Hardsigmoid 函数。 |
nn.Hardtanh |
按元素应用 HardTanh 函数。 |
nn.Hardswish |
如本文所述,按元素应用 hardswish 函数: |
nn.LeakyReLU |
应用逐元素函数: |
nn.LogSigmoid |
应用逐元素函数: |
nn.MultiheadAttention |
允许模型共同关注来自不同表示子空间的信息,如论文所述:Attention Is All You Need。 |
nn.PReLU |
应用逐元素函数: |
nn.ReLU |
逐元素应用整流线性单位函数: |
nn.ReLU6 |
应用逐元素函数: |
nn.RReLU |
如本文所述,按元素应用随机泄漏整流线性单元函数: |
nn.SELU |
按元素应用,如: |
nn.CELU |
应用逐元素函数: |
nn.GELU |
应用高斯误差线性单位函数: |
nn.Sigmoid |
应用逐元素函数: |
nn.SiLU |
逐元素应用 Sigmoid 线性单元 (SiLU) 函数。 |
nn.Mish |
逐元素应用 Mish 函数。 |
nn.Softplus |
应用 Softplus 功能\text{Softplus}(x) = \frac{1}{\beta} * \log(1 + \exp(\beta * x))软加( x )=β1日志( 1 _+exp ( βx ))元素方面。 |
nn.Softshrink |
逐元素应用软收缩函数: |
nn.Softsign |
应用逐元素函数: |
nn.Tanh |
逐元素应用双曲正切 (Tanh) 函数。 |
nn.Tanhshrink |
应用逐元素函数: |
nn.Threshold |
阈值输入张量的每个元素。 |
nn.GLU |
应用门控线性单元函数{GLU}(a, b)= a \otimes \sigma(b)葛卢(一, _**b )=一种⊗σ ( b )在哪里一种一种是输入矩阵的前半部分,并且bb是下半场。 |
非线性激活(其他)
nn.Softmin |
将 Softmin 函数应用于 n 维输入 Tensor 重新缩放它们,以便 n 维输出 Tensor 的元素位于[0, 1]范围内并且总和为 1。 |
|---|---|
nn.Softmax |
将 Softmax 函数应用于 n 维输入张量,重新缩放它们,使 n 维输出张量的元素位于 [0,1] 范围内并且总和为 1。 |
nn.Softmax2d |
将 SoftMax 应用于每个空间位置的特征。 |
nn.LogSoftmax |
应用\log(\text{Softmax}(x))日志( Softmax ( x ) )函数到 n 维输入张量。 |
nn.AdaptiveLogSoftmaxWithLoss |
Efficient softmax approximation 如Edouard Grave、Armand Joulin、Moustapha Cissé、David Grangier 和 Hervé Jégou 在 GPU 的 Efficient softmax approximation 中所述。 |
规范化层
nn.RNNBase循环层
nn.RNNBase |
|
|---|---|
nn.RNN |
应用多层 Elman RNN\tanh谭要么\文本{ReLU}ReLU输入序列的非线性。 |
nn.LSTM |
将多层长短期记忆 (LSTM) RNN 应用于输入序列。 |
nn.GRU |
将多层门控循环单元 (GRU) RNN 应用于输入序列。 |
nn.RNNCell |
具有 tanh 或 ReLU 非线性的 Elman RNN 单元。 |
nn.LSTMCell |
长短期记忆 (LSTM) 细胞。 |
nn.GRUCell |
门控循环单元 (GRU) 单元 |
nn.Transformer
nn.Transformer |
变压器模型。 |
|---|---|
nn.TransformerEncoder |
TransformerEncoder 是 N 个编码器层的堆栈 |
nn.TransformerDecoder |
TransformerDecoder 是 N 个解码器层的堆栈 |
nn.TransformerEncoderLayer |
TransformerEncoderLayer 由 self-attn 和前馈网络组成。 |
nn.TransformerDecoderLayer |
TransformerDecoderLayer 由 self-attn、multi-head-attn 和前馈网络组成。 |
线性层
nn.Identity |
对参数不敏感的占位符标识运算符。 |
|---|---|
nn.Linear |
对输入数据应用线性变换:y = xA^T + b是的=一个_吨+b |
nn.Bilinear |
对输入数据应用双线性变换:y = x_1^TA x_2 + b是的=X1吨一个_2+b |
nn.LazyLinear |
推断in_features的torch.nn.Linear模块。 |
Dropout层
nn.Dropout |
p在训练期间,使用来自伯努利分布的样本以概率将输入张量的一些元素随机归零。 |
|---|---|
nn.Dropout2d |
将整个通道随机归零(通道是 2D 特征图,例如,jj-第一个频道一世一世- 批处理输入中的第一个样本是 2D 张量\文本{输入}[i, j]输入[我,Ĵ ])。 |
nn.Dropout3d |
将整个通道随机归零(通道是 3D 特征图,例如,jj-第一个频道一世一世- 批处理输入中的第一个样本是一个 3D 张量\文本{输入}[i, j]输入[我,Ĵ ])。 |
nn.AlphaDropout |
在输入上应用 Alpha Dropout。 |
nn.FeatureAlphaDropout |
随机屏蔽整个通道(通道是特征图,例如 |
稀疏层
nn.Embedding |
一个简单的查找表,用于存储固定字典和大小的嵌入。 |
|---|---|
nn.EmbeddingBag |
计算嵌入“包”的总和或均值,而不实例化中间嵌入。 |
视觉层
nn.PixelShuffle |
重新排列形状张量中的元素(, C \times r^2, H, W)( * ,C×r2,,* _) 到一个形状张量(*, C, H \times r, W \times r)( * ,, ***H×r* ,W×r ), 其中 r 是一个高档因子。 |
|---|---|
nn.PixelUnshuffle |
PixelShuffle通过重新排列形状张量中的元素来反转操作(, C, H \times r, W \times r)( * ,, _**H×r* ,W×r )到一个形状张量(, C \times r^2, H, W)( * ,C×r2,,* _) _, 其中 r 是一个缩小因子。 |
nn.Upsample |
对给定的多通道 1D(时间)、2D(空间)或 3D(体积)数据进行上采样。 |
nn.UpsamplingNearest2d |
对由多个输入通道组成的输入信号应用 2D 最近邻上采样。 |
nn.UpsamplingBilinear2d |
对由多个输入通道组成的输入信号应用 2D 双线性上采样。 |
洗牌层
nn.ChannelShuffle |
将通道划分为形状张量(, C, H, W)( * ,, _**, _)* _分成 g 组并将它们重新排列为(, C \frac g, g, H, W)( * ,C,G**克,,* _) _,同时保持原始张量形状。 |
|---|---|
DataParallel 层(多 GPU,分布式)
nn.DataParallel |
在模块级别实现数据并行。 |
|---|---|
nn.parallel.DistributedDataParallel |
torch.distributed在模块级别实现基于包的分布式数据并行性。 |
Pytorch Layer层总结的更多相关文章
- 如果layer层在iframe下不居中滚动
需要在layer前面加上parent.layer. 2.运用layer层的步骤: 1.引入1.8版本以上的jquery文件 <script type="text/javascript& ...
- 当music-list向上滑动的时候,设置layer层,随其滚动,覆盖图片,往下滚动时候,图片随着展现出来
1.layer层代码: <div class="bg-layer" ref="layer"></div> 2.在mounted()的时候 ...
- 3.4 常用的两种 layer 层 3.7 字体与文本
3.4 常用的两种 layer 层 //在cocos2d-x中,经常使用到的两种 layer 层 : CCLayer 和 CCLayerColor //CCLayer 的创建 CCLayer* la ...
- caffe layer层cpp、cu调试经验和相互关系
对于layer层的cpp文件,你可以用LOG和printf.cout进行调试,cu文件不能使用LOG,可以使用cout,printf. 对于softmaxloss的layer层,既有cpp文件又有cu ...
- ZBrush中Layer层笔刷介绍
本文我们来介绍ZBrush®中的Layer层笔刷,该笔刷是一种类似梯田效果的笔刷,常用来制作鳞甲和花纹图腾.他还可以用一个固定的数值抬高或降低模型的表面,当笔刷在重合时,笔画重叠部分不会再次位移,这使 ...
- Layer层自定义
keras允许自定义Layer层, 大大方便了一些复杂操作的实现. 也方便了一些novel结构的复用, 提高搭建模型的效率. 实现方法 通过继承keras.engine.Layer类, 重写其中的部分 ...
- [Cocos2d-x For WP8]Layer 层
层(CCLayer) 从概念上说,层就是场景里的背景. CCLayer同样是CCNode的子类,通常用addChild方法添加子节点.CCLayer对象定义了可描绘的区域,定义了描绘的规则.C ...
- layer层、modal模拟窗 单独测试页面
layer_test.jsp <%@ page language="java" import="java.util.*" pageEncoding=&qu ...
- 【转载】 Caffe BN+Scale层和Pytorch BN层的对比
原文地址: https://blog.csdn.net/elysion122/article/details/79628587 ------------------------------------ ...
- pytorch RNN层api的几个参数说明
classtorch.nn.RNN(*args, **kwargs) input_size – The number of expected features in the input x hidde ...
随机推荐
- 多个modal遮罩层覆盖不全的问题
多个modal遮罩层覆盖不全的问题 如下有两个 modal的情况,要解决的是 在delete操作时弹出的modal 周围没有遮罩层环绕使得 确认 modal 辨识度不高 的问题 这里是修改好了的效果 ...
- 2024 Navicat Premium 16+17安装教程(附激活方法)
Navicat Premium,作为一款功能全面的集成数据库管理工具,无缝支持多样化的数据库类型,为用户带来前所未有的高效与便捷管理体验.它不仅涵盖了连接管理.数据导入导出.同步迁移.备份恢复等核心功 ...
- Windows编译运行webrtc全过程,并实现屏幕共享
文章分为三部分,代码获取/编译/运行. 第一步获取代码,打开cmd执行以下指令即可 set WORKSPACE=E:\webrtc mkdir %WORKSPACE% cd /d %WORKSPACE ...
- 低功耗4G模组Air780E快速入门:固件的远程升级
今天我们学习Air780E快速入门之固件的远程升级,小伙伴们,学起来吧! 一.生成差分包 合宙的远程升级支持使用合宙云平台和自建服务器,此例程使用的是合宙云平台. 1.1 准备新旧版的core和脚 ...
- vivo 游戏中心包体积优化方案与实践
作者:来自 vivo 互联网大前端团队- Ke Jie 介绍 App 包体积优化的必要性,游戏中心 App 在实际优化过程中的有效措施,包括一些优化建议以及优化思路. 一.包体积优化的必要性 安装包大 ...
- delphi Image32 变形控制
先看动画: 代码: 1 unit uFrmTransform; 2 3 interface 4 5 uses 6 Winapi.Windows, Winapi.Messages, System.Sys ...
- nemu-wsl-环境配置
实在是不愿意用学校的虚拟平台,觉得在自己的电脑上留存一部分真的很有意思,也想捣鼓一下,于是在自己电脑上配置下最基本的环境,做下记录 准备好wsl 因为要求环境是 Ubuntu 18.04 和 gcc- ...
- 【昌哥IT课堂】MySQL8.4.0新特性:FLUSH_PRIVILEGES动态权限细化与隔离[译]
介绍MySQL 支持 RELOAD 权限.现在,想象一个数据库用户被授予了 RELOAD 权限,这允许该用户在系统上执行 FLUSH PRIVILEGES 语句.假设该用户意外地执行了另一个强大的语句 ...
- Redis中的分布式锁(步步为营)
分布式锁 概述 分布式锁指的是,所有服务中的所有线程都去获取同一把锁,但只有一个线程可以成功的获得锁,其他没有获得锁的线程必须全部等待,直到持有锁的线程释放锁. 分布式锁是可以跨越多个实例,多个进程的 ...
- cornerstone中raft_server_resp_handlers源码解析
1.概述 在rpc请求里,有了请求req就必然有回复resp.本文就来解析发送req的节点收到resp该怎么处理. 2.handle_peer_resp源码解析 void raft_server::h ...