深度学习60分钟入门

来源于这里

本文目标:

  • 在高层次上理解PyTorch的Tensor库和神经网络
  • 训练一个小型的图形分类神经网络

本文示例运行在ipython中。

什么是PyTorch

PyTorch是由Torch7团队开发的,从名字就可以看出,它跟Torch的不同之处在于PyTorch使用了Python作为开发语言。所谓“Python first”,同样说明它是一个以Python优先的深度学习框架,不仅能够实现强大的GPU加速,同时还支持动态神经网络。

PyTorch既可以看做加入了GPU支持的numpy,同时也可以看成一个拥有自动求导功能的强大的深度神经网络。

入门

Tensor(向量)

Tensor与NumPy的ndarras类似,此外Tensor还可用于GPU加速运算。

from __future__ import print_function
import torch

创建一个为初始化的5x3的矩阵:

x = torch.empty(5,3)
print(x)

输出:

tensor([[0.0000e+00, 0.0000e+00, 0.0000e+00],
[0.0000e+00, 0.0000e+00, -0.0000e+00],
[0.0000e+00, 0.0000e+00, 0.0000e+00],
[1.4013e-45, 0.0000e+00, 0.0000e+00],
[0.0000e+00, 0.0000e+00, 0.0000e+00]])

创建一个随机初始化的矩阵:

x = torch.rand(5,3)
print(x)

输出:

tensor([[0.1633, 0.3415, 0.6341],
[0.9496, 0.6820, 0.7831],
[0.2327, 0.0311, 0.6763],
[0.5513, 0.6381, 0.1251],
[0.4553, 0.0795, 0.5904]])

创建一个由0填充,数据类型为long的矩阵:

x = torch.zeros(5,3,dtype=torch.long)
print(x)

输出:

tensor([[0, 0, 0],
[0, 0, 0],
[0, 0, 0],
[0, 0, 0],
[0, 0, 0]])

由给定的数据直接创建一个Tensor:

x = torch.tensor([5.5,3])
print(x)

输出:

tensor([5.5000, 3.0000])

根据已存在的Tensor创建一个新的Tensor。除非用户提供新值,否则输入的Tensor的属性将被复用:

x = x.new_ones(5,3,dtype=torch.double)
print(x) x = torch.randn_like(x,dtype=torch.float)
print(x)

输出:

tensor([[1., 1., 1.],
[1., 1., 1.],
[1., 1., 1.],
[1., 1., 1.],
[1., 1., 1.]], dtype=torch.float64)
tensor([[-1.2001, -0.3921, 1.1179],
[-1.5787, 0.4377, -0.2543],
[-0.2502, -0.4977, 1.1637],
[ 0.4006, 1.3536, 0.6846],
[-0.1242, 0.5019, -0.9795]])

获取大小:

print(x.size())

输出:

torch.Szie([5,3])

troch.Size实际是一个元组,所以支持元组的所有操作。

Operations(操作)

数学运算有多种语法。在下面的例子中,我们已加法运算为例。

加法:语法 1

y = torch.rand(5,3)
print('y = ',y)
print('x + y = ',x+y)

输出:

y =  tensor([[0.2520, 0.5938, 0.5229],
[0.1242, 0.9339, 0.4859],
[0.3769, 0.4005, 0.2906],
[0.4649, 0.2526, 0.7136],
[0.0941, 0.9550, 0.4462]])
x+y = tensor([[-0.9482, 0.2017, 1.6408],
[-1.4545, 1.3715, 0.2317],
[ 0.1268, -0.0973, 1.4543],
[ 0.8655, 1.6062, 1.3982],
[-0.0301, 1.4569, -0.5333]])

加法:语法 2

print('x+y = ',torch.add(x,y))

输出:

x+y =  tensor([[-0.9482,  0.2017,  1.6408],
[-1.4545, 1.3715, 0.2317],
[ 0.1268, -0.0973, 1.4543],
[ 0.8655, 1.6062, 1.3982],
[-0.0301, 1.4569, -0.5333]])

加法:提供一个输出的Tensor作为参数:

result = torch.empty(5,3)
torch.add(x,y,out=result)
print(result)

输出:

tensor([[-0.9482,  0.2017,  1.6408],
[-1.4545, 1.3715, 0.2317],
[ 0.1268, -0.0973, 1.4543],
[ 0.8655, 1.6062, 1.3982],
[-0.0301, 1.4569, -0.5333]])

加法:替代

y.add_(x)
print(y)

输出:

tensor([[-0.9482,  0.2017,  1.6408],
[-1.4545, 1.3715, 0.2317],
[ 0.1268, -0.0973, 1.4543],
[ 0.8655, 1.6062, 1.3982],
[-0.0301, 1.4569, -0.5333]])

任何替换原Tensor的操作都是以“_”为后缀的。例如 x.copy_(y),x.t_(),都会改变x

你可以使用标准的NumPy索引来获取元素:

print(x)
print(x[:,1])

输出:

tensor([[-1.2001, -0.3921,  1.1179],
[-1.5787, 0.4377, -0.2543],
[-0.2502, -0.4977, 1.1637],
[ 0.4006, 1.3536, 0.6846],
[-0.1242, 0.5019, -0.9795]])
tensor([-0.3921, 0.4377, -0.4977, 1.3536, 0.5019])

重置大小:如果你想改变Tensor的大小或者形状,你可以使用torch.view

x = torch.rand(4,4)
y = x.view(16)
z = x.view(-1,8) # -1为占位符,其大小是从其它维度推断出来的
print(x.size(),y.size(),z.size())
torch.Size([4, 4]) torch.Size([16]) torch.Size([2, 8])

如果你的Tensor只有一个元素,那么可以使用.item()获取到Python数字类型的值:

x = torch.randn(1)
print(x)
print(x.item())

输出:

tensor([0.6787])
0.678749144077301

进阶阅读:

100+向量操作,包括转置、索引、切片、数学运算、线性代数、随机数等,详见这里

NumPy Bridge

将一个Torch Tensor转换成NumPy array是非常简单的,反之亦然。转换后的Torch Tensor和NumPy array共享底层的内存地址(如果Torch Tensor在CPU上),即修改一个,另一个也会改变。

将torch tensor转NumPy array
a = torch.ones(5)
print(a)

输出:

tensor([1., 1., 1., 1., 1.])
b = a.numpy()
print(b)

输出:

[1. 1. 1. 1. 1.]

tensor值改变,numpy array的值也改变:

a.add_(1)
print(a)
print(b)

输出:

tensor([2., 2., 2., 2., 2.])
[2. 2. 2. 2. 2.]
将NumPy array 转Torch tensor

接下来展示如何将NumPy array转换为 Torch tensor

import numpy as np
a = np.ones(5)
b = torch.from_numpy(a)
np.add(a,1,out=a)
print(a)
print(b)

输出:

[2. 2. 2. 2. 2.]
tensor([2., 2., 2., 2., 2.], dtype=torch.float64)

除了CharTensor外,所有CPU上的Tensor都支持转成NumPy array并返回。

CUDA Tensors

Tensors可以使用.to方法移动到任何设备上。

# let us run this cell only if CUDA is available
# We will use ``torch.device`` objects to move tensors in and out of GPU
if torch.cuda.is_available():
device = torch.device("cuda") # a CUDA device object
y = torch.ones_like(x, device=device) # directly create a tensor on GPU
x = x.to(device) # or just use strings ``.to("cuda")``
z = x + y
print(z)
print(z.to("cpu", torch.double)) # ``.to`` can also change dtype together!

输出:

tensor([2.0897], device='cuda:0')
tensor([2.0897], dtype=torch.float64)

[PyTorch入门之60分钟入门闪击战]之入门的更多相关文章

  1. [PyTorch入门之60分钟入门闪击战]之训练分类器

    训练分类器 目前为止,你已经知道如何定义神经网络.计算损失和更新网络的权重.现在你可能在想,那数据呢? What about data? 通常,当你需要处理图像.文本.音频或者视频数据时,你可以使用标 ...

  2. [PyTorch入门之60分钟入门闪击战]之神经网络

    神经网络 来源于这里. 神经网络可以使用torch.nn包构建. 现在你对autograd已经有了初步的了解,nn依赖于autograd定义模型并区分它们.一个nn.Module包含了层(layers ...

  3. [PyTorch入门之60分钟入门闪击战]之自动推倒

    AUTOGRAD: AUTOMATIC DIFFERENTIATION(自动分化) 来源于这里. autograd包是PyTorch中所有神经网络的核心.首先我们先简单地了解下它,然后我们将训练我们的 ...

  4. 【PyTorch深度学习60分钟快速入门 】Part4:训练一个分类器

      太棒啦!到目前为止,你已经了解了如何定义神经网络.计算损失,以及更新网络权重.不过,现在你可能会思考以下几个方面: 0x01 数据集 通常,当你需要处理图像.文本.音频或视频数据时,你可以使用标准 ...

  5. 【PyTorch深度学习60分钟快速入门 】Part0:系列介绍

      说明:本系列教程翻译自PyTorch官方教程<Deep Learning with PyTorch: A 60 Minute Blitz>,基于PyTorch 0.3.0.post4 ...

  6. 【PyTorch深度学习60分钟快速入门 】Part5:数据并行化

      在本节中,我们将学习如何利用DataParallel使用多个GPU. 在PyTorch中使用多个GPU非常容易,你可以使用下面代码将模型放在GPU上: model.gpu() 然后,你可以将所有张 ...

  7. 【PyTorch深度学习60分钟快速入门 】Part2:Autograd自动化微分

      在PyTorch中,集中于所有神经网络的是autograd包.首先,我们简要地看一下此工具包,然后我们将训练第一个神经网络. autograd包为张量的所有操作提供了自动微分.它是一个运行式定义的 ...

  8. 【PyTorch深度学习60分钟快速入门 】Part1:PyTorch是什么?

      0x00 PyTorch是什么? PyTorch是一个基于Python的科学计算工具包,它主要面向两种场景: 用于替代NumPy,可以使用GPU的计算力 一种深度学习研究平台,可以提供最大的灵活性 ...

  9. 【PyTorch深度学习60分钟快速入门 】Part3:神经网络

      神经网络可以通过使用torch.nn包来构建. 既然你已经了解了autograd,而nn依赖于autograd来定义模型并对其求微分.一个nn.Module包含多个网络层,以及一个返回输出的方法f ...

随机推荐

  1. Linux文件共享的实现方式

    前两天跟老师去北京开了一个会议,好久没学习了,今天才回学校,其中的辛酸就不说了.来正文: 1.什么是文件共享 (1).文件共享就是同一个文件(同一个文件指的是同一个inode,同一个pathname) ...

  2. 关于vue内只要html元素的代码

    使用v-model v-text v-html vue会解析出入的html代码报错 则上传sku的description时需要html页面的代码 所以在description 所在的表单元素内加入 v ...

  3. 工作记录mysql主从复制

    环境ubuntu 16.04 主配置 1.编辑主MySQL配置文件vim /etc/mysql/mysql.conf.d/mysqld.cnf 更改server-id,它位于[mysqld]段.这个数 ...

  4. 吴裕雄--天生自然运维技术:LMT

    LMT,Local Maintenance Terminal的缩写,意思是本地维护终端.LMT是一个逻辑概念.LMT连接到RNC外网,提供NODE B操作维护的用户界面. LMT也是许可证管理技术Li ...

  5. java 中的小数点、大数、随机数处理

    1.小数点处理 public class Test { public static void main(String[] args) { double i = 3.856; // 舍掉小数取整 Sys ...

  6. Office 365 共享邮箱/日历

    一.共享邮箱 Office 365共享邮箱对于客户通过电子邮箱提出的问题,共享邮箱是一个很好的处理方式,组织中的多人可以分担监控邮箱和回复的责任,使得客户的问题更快地得到答复,而相关电子邮件都存储在一 ...

  7. javaScript 面向对象 触发夫级构造函数

    class Person{ constructor(name,age){ //直接写属性 this.name=name; this.age=age; console.log('a'); } showN ...

  8. shiro PermissionUtil

    package org.linlinjava.litemall.admin.util; import org.apache.shiro.authz.annotation.RequiresPermiss ...

  9. day44-线程

    #1.开启线程: from threading import Thread import os def func(): print('func',os.getpid()) t = Thread(tar ...

  10. day43-线程概念

    #1.进程:程序不能单独运行,要将程序加载到内存当中,系统为它分配资源才能运行,而这种执行的程序就是进程. #程序和进程的区别在于:程序是指令的集合,它是进程运行的静态描述文本:进程是程序的一次执行活 ...