Lesson1——Tensor
Tensor
| Method | 描述 |
|---|---|
is_tensor(obj) |
如果 obj 是 PyTorch 张量,则返回 True ; |
is_storage(obj) |
如果 obj 是 PyTorch 存储对象,则返回 True ;[torch.storage() ] |
is_complex(input) |
input如果 的数据类型是复杂数据类型,则返回 True ; |
is_conj(input) |
如果 input 是共轭张量,则返回 True ,即其共轭位设置为 True; |
is_floating_point(input) |
如果 input 的数据类型是浮点数据类型,则返回 True ; |
is_nonzero(input) |
input 如果是 单个张量且类型转换后不等于0,则返回 True ; |
set_default_dtype(d) |
将默认浮点 dtype 设置为d;[ dtype 查看类型] |
get_default_dtype() |
获取当前的默认浮点数 torch.dtype;[默认是 torch.float32 ] |
set_default_tensor_type(t) |
将默认 torch.Tensor 类型设置为浮点张量类型 t; |
numel(input) |
返回 input 张量中元素的总数;[考虑 tensor.shape 的各个维度相乘] |
set_printoptions |
设置输出格式; |
set_flush_denormal(model) |
禁用 CPU 上的非规范浮点数;[处理精度问题,False 则完整输出] |
创建操作
| Method | 描述 |
|---|---|
tensor |
用 构造一个张量data; |
sparse_coo_tensor |
在给定索引处构造一个具有指定值的 COO(rdinate) 格式的稀疏张量; |
as_tensor |
将数据转换为torch.Tensor ; |
as_strided |
创建具有指定大小、步幅和 storage_offset 的现有 torch.Tensor 输入的视图; |
from_numpy |
从 numpy.ndarray 创建一个张量; |
frombuffer |
从实现 Python 缓冲区协议的对象创建一维张量; |
zeros |
返回一个用标量值 0 填充的张量,其形状由变量参数 *size 定义; |
zeros_like |
返回一个用标量值 0 填充的张量,大小与 input 相同; |
ones |
返回一个用标量值 1 填充的张量,其形状由变量参数 *size 定义; |
ones_like |
返回一个用标量值 1 填充的张量,其大小与input 相同; |
arange |
返回大小为$\left\lceil\frac{\text { end-start }}{\text { step }}\right\rceil$的一维张量,生成区间 [start , end),公差为 step; |
range |
返回大小为 $\left\lceil\frac{\text { end-start }}{\text { step }}\right\rceil +1$ 的一维张量值,从start到 end,步长为 step; |
linspace |
创建大小为 steps 的一维张量,其值从到 start 到 end 的均匀分布; |
logspace |
创建大小为 steps 的一维张量,值从 ${{\text{{base}}}}^{{\text{{start}}}}$ 到 ${{\text{{base}}}}^{{\text{{end}}}}$ ; |
eye |
返回一个二维张量,其中对角线为 1,其他位置为 0; |
empty |
返回一个未初始化数据的张量; |
empty_like |
返回与 input 大小相同的未初始化张量; |
empty_strided |
返回一个充满未初始化数据的张量; |
full |
创建一个大小为 size 的张量,值用 fill_value 填充; |
full_like |
返回一个与input 大小相同的张量,并用fill_value填充; |
quantize_per_tensor |
将浮点张量转换为具有给定比例和零点的量化张量; |
quantize_per_channel |
将浮点张量转换为具有给定比例和零点的每通道量化张量; |
dequantize |
通过反量化量化张量返回 fp32 张量; |
complex |
构造复数张量,其实部等于 real 虚部等于 imag; |
polar |
构造复数张量,元素是笛卡尔坐标,对应于具有绝对值和角度的极坐标; |
heaviside |
计算 中的每个元素的 Heaviside 阶跃函数input; |
索引、切片、连接、变异操作
| Method | 描述 |
|---|---|
cat |
连接给定seq给定维度的张量序列;[ 默认axis = 0 ] |
concat |
别名 torch.cat(); |
conj |
返回input带有翻转共轭位的视图;[ real 相等,imag 相反,考虑 is_conj() ] |
chunk |
将张量拆分为指定数量的块;[ 不一定等于给定数量块 ] |
dsplit |
将input具有三个或更多维度的张量深度拆分为多个张量; |
column_stack |
通过在 中水平堆叠张量来创建一个新张量 tensors; |
dstack |
按深度顺序堆叠张量(沿第三轴); |
gather |
沿 dim 指定的轴收集值; |
hsplit |
将input具有一个或多个维度的张量水平拆分为多个张量; |
hstack |
水平顺序堆叠张量(按列); |
index_select |
返回一个新的张量,沿指定轴、索引选择; |
masked_select |
返回一个新的一维张量,根据 mask 中的 True 选择 input 中的值; |
movedim |
将 input 的轴从 source 转移到 destination ; |
moveaxis |
torch.movedim() 的别名; |
narrow |
返回一个新的张量,沿指定 dim ,选择从 start 到 start+length 的元素 ; |
nonzero |
返回一个新的张量,将值不为 0 的坐标给出; |
permute |
返回原始张量的视图,input其尺寸已置换; |
reshape |
返回具有与input相同的数据和元素数量但具有指定形状的张量; |
row_stack |
torch.vstack() 的别名; |
scatter |
异地版本torch.Tensor.scatter_() ; |
scatter_add |
异地版本torch.Tensor.scatter_add_() ; |
split |
根据 split_size_or_sections 将张量拆分为块; |
squeeze |
返回一个张量,其中所有input大小为1的维度都已删除; |
stack |
沿 dim 连接一系列张量; |
swapaxes |
torch.transpose() 的别名; |
swapdims |
torch.transpose() 的别名; |
t |
张量转置; |
take |
从 input 返回具有给定索引处元素的新张量; |
take_along_dim |
从给定 input 的 1 维索引处选择值; |
tensor_split |
根据 指定的索引或节数,将input一个张量拆分为多个子张量; |
tile |
通过重复 input 的元素构造一个张量。 |
transpose |
返回一个张量,它是 的转置版本input。 |
unbind |
删除轴 dim 下的张量维度,并返回新张量。 |
unsqueeze |
返回一个插入到指定位置的尺寸为 1 的新张量。 |
vsplit |
根据input将具有两个或多个维度的张量垂直拆分为多个张量。 |
vstack |
垂直(按行)按顺序堆叠张量。 |
where |
返回从x或y中选择的元素的张量,具体取决于condition. |
Generators
| Method | 描述 |
|---|---|
Generator |
创建并返回一个生成器对象,该对象管理生成伪随机数的算法的状态; |
随机抽样
| Method | 描述 |
|---|---|
seed |
将生成随机数的种子设置为非确定性随机数; |
manual_seed |
设置生成随机数的种子; |
initial_seed |
返回用于生成随机数的初始种子作为 Python long; |
get_rng_state |
以torch.ByteTensor 形式返回随机数生成器状态; |
set_rng_state |
设置随机数生成器状态; |
分布
| Method | 描述 |
|---|---|
bernoulli |
从伯努利分布中绘制二进制随机数(0 或 1); |
multinomial |
返回一个张量,每一行包含num_samples从位于相应张量行中的多项概率分布中采样的索引; |
normal |
返回从给出均值和标准差的独立正态分布中抽取的随机数张量; |
poisson |
返回与从泊松分布中采样的每个元素大小相同的张量; |
rand |
从区间上的均匀分布返回一个填充有随机数[ 0 ,1 )的张量 |
rand_like |
返回一个大小相同的张量,其中input填充了区间上均匀分布的随机数[0, 1); |
randint |
返回一个填充了随机整数的张量,用[low ,high)填充的张量; |
randint_like |
返回一个与 Tensor 形状相同的张量,[low,high)之间均匀生成的随机整数; |
randn |
从均值为 0方差为1的正态分布中返回一个填充随机数的张量; |
randn_like |
返回一个大小相同的张量,填充了来自均值为 0 和方差为 1 的正态分布的随机数; |
randperm |
返回从 0 到 n-1 的整数的随机排列; |
Lesson1——Tensor的更多相关文章
- [PyTorch 学习笔记] 1.2 Tensor(张量)介绍
本章代码: https://github.com/zhangxiann/PyTorch_Practice/blob/master/lesson1/tensor_introduce1.py https: ...
- Torch7 Tensor切片总结
1.narrow(k,m,n) 这个函数是选中第k维的从m行开始,供选中n行 2.sub(dim1s,dim1e[,dim2s,dim2e,..,dim4s,dim4e]) 功能最强大,可以切任意的一 ...
- Tensorflow学习笔记2:About Session, Graph, Operation and Tensor
简介 上一篇笔记:Tensorflow学习笔记1:Get Started 我们谈到Tensorflow是基于图(Graph)的计算系统.而图的节点则是由操作(Operation)来构成的,而图的各个节 ...
- tensor
初始化 z = torch.Tensor(,,,,) --可以创建多维数组.里面是随机的数. s = torch.Tensor(,):fill() --用1填充 t = torch.rand(,) m ...
- 4d tensor
偶然在一个ppt中看到了如下关于tensor的解释,清晰明白,所以post在这里,以备后续查看 根据这个理解: theano中的input(4d tensor):[mini-batch size, n ...
- Tensor神经网络进行知识库推理
本文是我关于论文<Reasoning With Neural Tensor Networks for Knowledge Base Completion>的学习笔记. 一.算法简介 网络的 ...
- lesson1:压测普通网页
本文展示了利用jmeter来压力测试普通网页,具体步骤如下: 1.添加[线程组]“lesson1压测普通网页”,“线程数”设置为10:“循环测试“设置为50,如图所示: 2.添加一个"htt ...
- TFboy养成记 tensor shape到底怎么说
tensor.shape 对于一位向量,其形式为[x,] 对于矩阵,二维矩阵[x,y],三维矩阵[x,y,z] 对于标量,也就是0.3*x这种0.3,表示形式为() 如果说这个矩阵是三维的,你想获得其 ...
- tensorflow+入门笔记︱基本张量tensor理解与tensorflow运行结构
Gokula Krishnan Santhanam认为,大部分深度学习框架都包含以下五个核心组件: 张量(Tensor) 基于张量的各种操作 计算图(Computation Graph) 自动微分(A ...
随机推荐
- 【Java】java基础
文章目录 Java基础 1 注释.标识符.关键字 1.1 注释 1.2 关键字 1.3 标识符 1.4 数据类型 1.4.1 基本类型 1.4.2 引用类型 1.4.3 整数类型拓展 1.4.4 浮点 ...
- leetcode 24. 两两交换链表中的节点 及 25. K 个一组翻转链表
24. 两两交换链表中的节点 问题描述 给定一个链表,两两交换其中相邻的节点,并返回交换后的链表. 你不能只是单纯的改变节点内部的值,而是需要实际的进行节点交换. 示例: 给定 1->2-> ...
- ecos matlab版本安装
官网链接 github地址 1.注意不仅要下载matlab版本,同时还要下载c版本,因为matlab版本缺少第三方软件,将两个版本解压缩后将c版本下的文件夹external,ecos_bb,inclu ...
- JVM完整详解:内存分配+运行原理+回收算法+GC参数等
不管是BAT面试,还是工作实践中的JVM调优以及参数设置,或者内存溢出检测等,都需要涉及到Java虚拟机的内存模型.内存分配,以及回收算法机制等,这些都是必考.必会技能. JVM内存模型 JVM内存模 ...
- windows10双系统删除linux
问题 在这里删除后会发现有残留一个引导区,几百m(下图已经删除完),而且启动会进linux引导,然后必须f12进入选择启动项才可以启动windows 解决方法 使用删除引导就可以了 再使用傲梅分区助手 ...
- http 的get 与 post 的区别
1.原理区别 一般在浏览器中输入网址访问资源都是通过GET方式:在FORM提交中,可以通过Method指定提交方式为GET或者POST,默认为GET提交 Http定义了与服务器交互的不同方法,最基本的 ...
- 使用ansible 批量分发ssh密钥
先看执行结果 看看ssh.yml怎么写的 看看hosts文件中backup组怎么写的
- ubuntu16.04同时使用 pyhton2.7和3.5,并随意切换
ubuntu16.04中默认已经安装了python2.7和python3.5 hanli@ubuntu:/usr/bin$ ls |grep python dh_python2 dh_python3 ...
- 【webpack4.0】---webpack的基本使用(四)
一.什么是babel babel是一个编译javascript的平台,它可以编译代码帮你达到以下目的 1.让你使用最近的javascript代码(ES6 ES7) 而不用管新的标准浏览器是否支持 ...
- 码风QwQ
注:卡常.压行时怎么有效怎么来QwQ 快读真香.( 不喜欢用字符数组,使用string. 此时cin cout输入前会加这样三句以优化: ios::sync_with_stdio(0); cin.ti ...