1. 张量

 

1.1. 概述

 

张量(tensor)是pytorch中的一种较为基础的数据结构,类比于numpy中的ndarrays,在pytorch中,张量可以在GPU中进行运算

 

通过以下命令,我们导入pytorch和numpy:

In [1]:
import torch
import numpy as np
 

1.2. 张量初始化

 

1.2.1. 直接生成张量

In [2]:
data = [[1, 2], [3, 4]]
x_data = torch.tensor(data)
In [3]:
x_data
Out[3]:
tensor([[1, 2],
[3, 4]])
 

1.2.2. ndarrays转化

In [4]:
np_array = np.array(data)
x_np = torch.from_numpy(np_array)
In [5]:
x_np
Out[5]:
tensor([[1, 2],
[3, 4]])
 

1.2.3. 通过已有张量生成

 

继承结构与数据类型:

In [6]:
x_ones = torch.ones_like(x_data)
In [7]:
x_ones
Out[7]:
tensor([[1, 1],
[1, 1]])
 

继承结构,改变数据类型:

In [8]:
x_rand = torch.rand_like(x_data, dtype=torch.float)
In [9]:
x_rand
Out[9]:
tensor([[0.9849, 0.3644],
[0.0800, 0.2939]])
 

1.2.4. 指定维数生成张量

 

用元组类型的数据指定维数:

In [10]:
shape = (2, 3)
 

生成张量:

In [11]:
torch.ones(shape)
Out[11]:
tensor([[1., 1., 1.],
[1., 1., 1.]])
In [12]:
torch.zeros(shape)
Out[12]:
tensor([[0., 0., 0.],
[0., 0., 0.]])
In [13]:
torch.rand(shape)
Out[13]:
tensor([[0.1744, 0.3771, 0.7969],
[0.7098, 0.9853, 0.3950]])
 

1.3. 张量属性

 

维数:

In [14]:
x_data.shape
Out[14]:
torch.Size([2, 2])
 

数据类型:

In [15]:
x_data.dtype
Out[15]:
torch.int64
 

存储设备:

In [16]:
x_data.device
Out[16]:
device(type='cpu')
 

1.4. 张量计算

 

GPU对于张量的计算更快,检测GPU是否可用:

In [17]:
torch.cuda.is_available()
Out[17]:
False
 

显然,对于笔者设备来说,由于没有显卡,GPU加速是不可用的,如果设备GPU可用,可以将CPU中的数据导入GPU:

In [18]:
if torch.cuda.is_available():
tensor = x_data.to('cuda')
 

1.4.1. 索引和切片

In [19]:
tensor = torch.ones((3, 4))
In [20]:
tensor
Out[20]:
tensor([[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.]])
 

类比于ndarrays,tensor也可理解为是一个多维数组,以下表示将tensor变量的第一行、第一列变为0:

In [21]:
tensor[1, 1] = 0
In [22]:
tensor
Out[22]:
tensor([[1., 1., 1., 1.],
[1., 0., 1., 1.],
[1., 1., 1., 1.]])
 

以下表示将tensor变量的第三列变为0:

In [23]:
tensor[:, 3] = 0
In [24]:
tensor
Out[24]:
tensor([[1., 1., 1., 0.],
[1., 0., 1., 0.],
[1., 1., 1., 0.]])
 

1.4.2. 张量的拼接

In [25]:
tensor1 = torch.ones((3, 4))
tensor2 = torch.zeros((3, 4))
 

使用torch.cat()方法,指定维数进行拼接:

In [26]:
torch.cat([tensor1, tensor2], dim=1)
Out[26]:
tensor([[1., 1., 1., 1., 0., 0., 0., 0.],
[1., 1., 1., 1., 0., 0., 0., 0.],
[1., 1., 1., 1., 0., 0., 0., 0.]])
In [27]:
torch.cat([tensor1, tensor2], dim=0)
Out[27]:
tensor([[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.],
[0., 0., 0., 0.],
[0., 0., 0., 0.],
[0., 0., 0., 0.]])
In [28]:
torch.cat([tensor1, tensor2], dim=-1)
Out[28]:
tensor([[1., 1., 1., 1., 0., 0., 0., 0.],
[1., 1., 1., 1., 0., 0., 0., 0.],
[1., 1., 1., 1., 0., 0., 0., 0.]])
In [29]:
torch.cat([tensor1, tensor2], dim=-2)
Out[29]:
tensor([[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.],
[0., 0., 0., 0.],
[0., 0., 0., 0.],
[0., 0., 0., 0.]])
In [30]:
torch.cat([tensor1, tensor2, tensor], dim=-2)
Out[30]:
tensor([[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.],
[0., 0., 0., 0.],
[0., 0., 0., 0.],
[0., 0., 0., 0.],
[1., 1., 1., 0.],
[1., 0., 1., 0.],
[1., 1., 1., 0.]])
 

此处实验 dim = 2 时,有:

In [31]:
torch.cat([tensor1, tensor2], dim=2)
 
---------------------------------------------------------------------------
IndexError Traceback (most recent call last)
<ipython-input-31-dc57fe12e880> in <module>
----> 1 torch.cat([tensor1, tensor2], dim=2) IndexError: Dimension out of range (expected to be in range of [-2, 1], but got 2)
 

根据官网示例,此处dim的取值主要是0和1:

 
x = torch.randn(2, 3)
torch.cat((x, x, x), 0)
torch.cat((x, x, x), 1)
 

综上,dim的取值有 -2、-1、0、1,然而-2、-1与0、1的意思似乎是一样的

 

1.4.3. 张量的乘积与矩阵乘法

 

逐个元素相乘:

In [32]:
tensor.mul(tensor)
Out[32]:
tensor([[1., 1., 1., 0.],
[1., 0., 1., 0.],
[1., 1., 1., 0.]])
 

等价于:

In [33]:
tensor * tensor
Out[33]:
tensor([[1., 1., 1., 0.],
[1., 0., 1., 0.],
[1., 1., 1., 0.]])
 

张量与张量的矩阵乘法:

In [34]:
tensor.matmul(tensor.T)
Out[34]:
tensor([[3., 2., 3.],
[2., 2., 2.],
[3., 2., 3.]])
 

等价于:

In [35]:
tensor @ tensor.T
Out[35]:
tensor([[3., 2., 3.],
[2., 2., 2.],
[3., 2., 3.]])
 

1.4.4. 自动赋值运算

 

自增运算:

In [36]:
tensor
Out[36]:
tensor([[1., 1., 1., 0.],
[1., 0., 1., 0.],
[1., 1., 1., 0.]])
In [37]:
tensor.add_(5)
Out[37]:
tensor([[6., 6., 6., 5.],
[6., 5., 6., 5.],
[6., 6., 6., 5.]])
In [38]:
tensor
Out[38]:
tensor([[6., 6., 6., 5.],
[6., 5., 6., 5.],
[6., 6., 6., 5.]])
 

复制运算:

In [39]:
tensor.copy_(tensor1)
Out[39]:
tensor([[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.]])
In [40]:
tensor
Out[40]:
tensor([[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.]])
 

注意:自动赋值运算可以节省内存,但是会导致一些中间过程的问题

 

1.5. Tensor与Numpy的转换

 

1.5.1. Tensor转换为Numpy

In [41]:
tensor
Out[41]:
tensor([[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.]])
In [42]:
np_t = tensor.numpy()
In [43]:
np_t
Out[43]:
array([[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.]], dtype=float32)
In [44]:
tensor.add_(5)
Out[44]:
tensor([[6., 6., 6., 6.],
[6., 6., 6., 6.],
[6., 6., 6., 6.]])
In [45]:
np_t
Out[45]:
array([[6., 6., 6., 6.],
[6., 6., 6., 6.],
[6., 6., 6., 6.]], dtype=float32)
 

可见:Tensor和Numpy共用内存,一个改变时另一个也改变

 

1.5.2. Numpy转Tensor

In [46]:
np_t
Out[46]:
array([[6., 6., 6., 6.],
[6., 6., 6., 6.],
[6., 6., 6., 6.]], dtype=float32)
In [47]:
tensor
Out[47]:
tensor([[6., 6., 6., 6.],
[6., 6., 6., 6.],
[6., 6., 6., 6.]])
In [48]:
t_np = torch.from_numpy(np_t)
In [49]:
t_np
Out[49]:
tensor([[6., 6., 6., 6.],
[6., 6., 6., 6.],
[6., 6., 6., 6.]])
In [50]:
np.add(np_t, 1, out=np_t)
Out[50]:
array([[7., 7., 7., 7.],
[7., 7., 7., 7.],
[7., 7., 7., 7.]], dtype=float32)
In [51]:
t_np
Out[51]:
tensor([[7., 7., 7., 7.],
[7., 7., 7., 7.],
[7., 7., 7., 7.]])
In [52]:
np.add(np_t, 1)
Out[52]:
array([[8., 8., 8., 8.],
[8., 8., 8., 8.],
[8., 8., 8., 8.]], dtype=float32)
In [53]:
t_np
Out[53]:
tensor([[7., 7., 7., 7.],
[7., 7., 7., 7.],
[7., 7., 7., 7.]])
 

可见:np.add()指定out=时才会重新赋值

 

1.6. 参考资料:

pytorch学习笔记一之张量的更多相关文章

  1. [PyTorch 学习笔记] 1.3 张量操作与线性回归

    本章代码:https://github.com/zhangxiann/PyTorch_Practice/blob/master/lesson1/linear_regression.py 张量的操作 拼 ...

  2. [PyTorch 学习笔记] 1.2 Tensor(张量)介绍

    本章代码: https://github.com/zhangxiann/PyTorch_Practice/blob/master/lesson1/tensor_introduce1.py https: ...

  3. Pytorch学习笔记(二)---- 神经网络搭建

    记录如何用Pytorch搭建LeNet-5,大体步骤包括:网络的搭建->前向传播->定义Loss和Optimizer->训练 # -*- coding: utf-8 -*- # Al ...

  4. Pytorch学习笔记(一)---- 基础语法

    书上内容太多太杂,看完容易忘记,特此记录方便日后查看,所有基础语法以代码形式呈现,代码和注释均来源与书本和案例的整理. # -*- coding: utf-8 -*- # All codes and ...

  5. 【pytorch】pytorch学习笔记(一)

    原文地址:https://pytorch.org/tutorials/beginner/deep_learning_60min_blitz.html 什么是pytorch? pytorch是一个基于p ...

  6. [PyTorch 学习笔记] 1.4 计算图与动态图机制

    本章代码:https://github.com/zhangxiann/PyTorch_Practice/blob/master/lesson1/computational_graph.py 计算图 深 ...

  7. [PyTorch 学习笔记] 2.2 图片预处理 transforms 模块机制

    PyTorch 的数据增强 我们在安装PyTorch时,还安装了torchvision,这是一个计算机视觉工具包.有 3 个主要的模块: torchvision.transforms: 里面包括常用的 ...

  8. [PyTorch 学习笔记] 4.3 优化器

    本章代码: https://github.com/zhangxiann/PyTorch_Practice/blob/master/lesson4/optimizer_methods.py https: ...

  9. 【深度学习】Pytorch 学习笔记

    目录 Pytorch Leture 05: Linear Rregression in the Pytorch Way Logistic Regression 逻辑回归 - 二分类 Lecture07 ...

  10. Pytorch学习笔记(二)——Tensor

    一.对Tensor的操作 从接口的角度讲,对Tensor的操作可以分为两类: (1)torch.function (2)tensor.function 比如torch.sum(a, b)实际上和a.s ...

随机推荐

  1. 1分钟理清楚C++类模板和模板类区别

    1.定义区别 类模板和模板类主要关注点是后一个单词. 类模板:主要描述的是模板,这个模板是类的模板.可以理解为一个通用的类,这个类中的数据成员,成员函数的形参类型以及成员函数的返回值类型不用具体的指定 ...

  2. 如何优化大场景实时渲染?HMS Core 3D Engine这么做

    在先前举办的华为开发者大会2022(HDC)上,华为通过3D数字溪村展示了自有3D引擎"HMS Core 3D Engine"(以下简称3D Engine)的强大能力.作为一款高性 ...

  3. week_8

    Andrew Ng 机器学习笔记 ---By Orangestar Week_7_Unsupervised Learning While supervised learning algorithms ...

  4. ClickHouse数据副本引擎

    我的gitee地址:https://gitee.com/ddxygq/bigdata-technical-pai ,相关文章都放到这个仓库里了. 只有 MergeTree 系列里的表可支持副本: Re ...

  5. C语言读写txt文件

    写入和读取txt文件 #include<stdio.h> #include<string.h> int main( int argc, char *argv[] ) { int ...

  6. Service层和Dao层的一些自我理解(╥╯^╰╥)(╥╯^╰╥)(学了这么久,这玩意儿似懂非懂的)

    学习java已经有很长时间了,但由于是在学校学的,基础不怎么扎实. 这几个月系统的学习,弥补了很多的缺陷,虽然大多数时间都在弄算法(咳咳),我前面的博客有写 如果有认真看过我代码的朋友会发现,我其实英 ...

  7. vue3+TS 自定义指令:长按触发绑定的函数

    vue3+TS 自定义指令:长按触发绑定的函数 而然间看到一个在vue2中写的长按触发事件的自定义指定,想着能不能把他copy到我的vue3项目中呢. 编写自定义指令时遇到的几个难点 1.自定义指令的 ...

  8. 使用Springboot+redis+Vue实现秒杀的一个Demo

    目录 1.Redis简介 2.实现代码 3.启动步骤 4.使用ab进行并发测试 5.线程安全 6.总结 7.参考资料 1.Redis简介 Redis是一个开源的key-value存储系统. Redis ...

  9. Docker搭建Cloudreve网盘

    原文地址: https://blog.laoda.de/archives/docker-compose-install-lighthouse-cloudreve 油管视频: https://www.y ...

  10. vulnhub靶场之HACKATHONCTF: 2

    准备: 攻击机:虚拟机kali.本机win10. 靶机:HackathonCTF: 2,下载地址:https://download.vulnhub.com/hackathonctf/Hackathon ...