PyTorch Data Parrallel数据并行

  • 可选择:数据并行处理
  • 本文将学习如何用 DataParallel 来使用多 GPU。 通过 PyTorch 使用多个 GPU 非常简单。可以将模型放在一个 GPU:
  • device = torch.device("cuda:0")
  • model.to(device)
  • 可以复制所有的张量到 GPU:
  • mytensor = my_tensor.to(device)
  • 调用 my_tensor.to(device) 返回一个 my_tensor, 新的复制在GPU上,而不是重写 my_tensor。需要分配一个新的张量并且在 GPU 上使用这个张量。
  • 在多 GPU 中执行前馈,后继操作是非常自然的。尽管如此,PyTorch 默认只会使用一个 GPU。通过使用 DataParallel 让模型并行运行,可以很容易的在多 GPU 上运行操作。
  • model = nn.DataParallel(model)
  • 这是整个教程的核心,接下来将会详细讲解。 引用和参数
  • 引入 PyTorch 模块和定义参数
  • import torch
  • import torch.nn as nn
  • from torch.utils.data import Dataset, DataLoader
  • 参数
  • input_size = 5
  • output_size = 2
  • batch_size = 30
  • data_size = 100
  • 设备
  • device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
  • 实验(玩具)数据
  • 生成一个玩具数据。只需要实现 getitem.
  • classRandomDataset(Dataset):
  • def__init__(self, size, length):
  • self.len = length
  • self.data = torch.randn(length, size)
  • def__getitem__(self, index):
  • return self.data[index]
  • def__len__(self):
  • return self.len
  • rand_loader = DataLoader(dataset=RandomDataset(input_size, data_size),batch_size=batch_size, shuffle=True)
  • 简单模型
  • 做一个小 demo,模型只是获得一个输入,执行一个线性操作,然后给一个输出。可以使用 DataParallel   在任何模型(CNN, RNN, Capsule Net 等等.)
  • 放置了一个输出声明在模型中,检测输出和输入张量的大小。在 batch rank 0 中的输出。
  • classModel(nn.Module):
  • # Our model
  • def__init__(self, input_size, output_size):
  • super(Model, self).__init__()
  • self.fc = nn.Linear(input_size, output_size)
  • defforward(self, input):
  • output = self.fc(input)
  • print("\tIn Model: input size", input.size(),
  • "output size", output.size())
  • return output
  • 创建模型并且数据并行处理
  • 这是本文的核心。首先需要一个模型的实例,然后验证是否有多个 GPU。如果有多个 GPU,可以用 nn.DataParallel 来包裹模型。然后使用 model.to(device) 把模型放到多 GPU 中。
  • model = Model(input_size, output_size)
  • if torch.cuda.device_count() > 1:
  • print("Let's use", torch.cuda.device_count(), "GPUs!")
  • # dim = 0 [30, xxx] -> [10, ...], [10, ...], [10, ...] on 3 GPUs
  • model = nn.DataParallel(model)
  • model.to(device)
  • 输出:
  • Let's use 2 GPUs!
  • 运行模型: 现在可以看到输入和输出张量的大小了。
  • for data in rand_loader:
  • input = data.to(device)
  • output = model(input)
  • print("Outside: input size", input.size(),
  • "output_size", output.size())
  • 输出:
  • In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
  • In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
  • Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
  • In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
  • In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
  • Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
  • In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
  • In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
  • Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
  • In Model: input size torch.Size([5, 5]) output size torch.Size([5, 2])
  • In Model: input size torch.Size([5, 5]) output size torch.Size([5, 2])
  • Outside: input size torch.Size([10, 5]) output_size torch.Size([10, 2])
  • 结果:
  • 如果没有 GPU 或者只有一个 GPU,当获取 30 个输入和 30 个输出,模型将期望获得 30 个输入和 30 个输出。但是如果有多个 GPU ,会获得这样的结果。
  • 多 GPU
  • 如果有 2 个GPU,会看到:
  • # on 2 GPUs
  • Let's use 2 GPUs!
  • In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
  • In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
  • Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
  • In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
  • In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
  • Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
  • In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
  • In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
  • Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
  • In Model: input size torch.Size([5, 5]) output size torch.Size([5, 2])
  • In Model: input size torch.Size([5, 5]) output size torch.Size([5, 2])
  • Outside: input size torch.Size([10, 5]) output_size torch.Size([10, 2])
  • 如果有 3个GPU,会看到:
  • Let's use 3 GPUs!
  • In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
  • In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
  • In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
  • Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
  • In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
  • In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
  • In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
  • Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
  • In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
  • In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
  • In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
  • Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
  • In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
  • In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
  • In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])
  • Outside: input size torch.Size([10, 5]) output_size torch.Size([10, 2])
  • 如果有 8个GPU,会看到:
  • Let's use 8 GPUs!
  • In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
  • In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
  • In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])
  • In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
  • In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
  • In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
  • In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
  • In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
  • Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
  • In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
  • In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
  • In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
  • In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
  • In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
  • In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
  • In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])
  • In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
  • Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
  • In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
  • In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
  • In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
  • In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
  • In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
  • In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
  • In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
  • In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])
  • Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
  • In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])
  • In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])
  • In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])
  • In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])
  • In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])
  • Outside: input size torch.Size([10, 5]) output_size torch.Size([10, 2])
  • 总结
  • 数据并行自动拆分了数据并,将任务单发送到多个 GPU 上。当每一个模型都完成任务之后,DataParallel 收集并且合并这些结果,然后再返回。

PyTorch Data Parrallel数据并行的更多相关文章

  1. PyTorch Tutorials 5 数据并行(选读)

    %matplotlib inline 数据并行(选读) Authors: Sung Kim and Jenny Kang 在这个教程里,我们将学习如何使用 DataParallel 来使用多GPU. ...

  2. [源码解析] PyTorch分布式优化器(2)----数据并行优化器

    [源码解析] PyTorch分布式优化器(2)----数据并行优化器 目录 [源码解析] PyTorch分布式优化器(2)----数据并行优化器 0x00 摘要 0x01 前文回顾 0x02 DP 之 ...

  3. [源码解析] PyTorch 分布式(1) --- 数据加载之DistributedSampler

    [源码解析] PyTorch 分布式(1) --- 数据加载之DistributedSampler 目录 [源码解析] PyTorch 分布式(1) --- 数据加载之DistributedSampl ...

  4. [源码解析] PyTorch 分布式(2) --- 数据加载之DataLoader

    [源码解析] PyTorch 分布式(2) --- 数据加载之DataLoader 目录 [源码解析] PyTorch 分布式(2) --- 数据加载之DataLoader 0x00 摘要 0x01 ...

  5. Data Pump(数据抽取)介绍

    从10g开始,Oracle提供更高效的Data Pump(即expdp/impdp)来进行数据的导入和导出,老的exp/imp还可以用,但已经不建议使用.注意:expdp/impdp和exp/imp之 ...

  6. 深度神经网络DNN的多GPU数据并行框架 及其在语音识别的应用

    深度神经网络(Deep Neural Networks, 简称DNN)是近年来机器学习领域中的研究热点,产生了广泛的应用.DNN具有深层结构.数千万参数需要学习,导致训练非常耗时.GPU有强大的计算能 ...

  7. 【深度学习系列2】Mariana DNN多GPU数据并行框架

    [深度学习系列2]Mariana DNN多GPU数据并行框架  本文是腾讯深度学习系列文章的第二篇,聚焦于腾讯深度学习平台Mariana中深度神经网络DNN的多GPU数据并行框架.   深度神经网络( ...

  8. Oracle 11g R2 Backup Data Pump(数据泵)之expdp/impdp工具

    Oracle Data Pump(以下简称数据泵)是Oracle 10g开始提供的一种数据迁移工具,同时也被广大DBA用来作为数据库的逻辑备份工具和体量较小的数据迁移工具.与传统的数据导出/导入工具, ...

  9. .Net并行编程(一)-TPL之数据并行

    前言 许多个人计算机和工作站都有多个CPU核心,可以同时执行多个线程.利用硬件的特性,使用并行化代码以在多个处理器之间分配工作. 应用场景 文件批量上传 并行上传单个文件.也可以把一个文件拆成几段分开 ...

随机推荐

  1. 【小技巧】Windows 小技巧

    快捷键: 1.Win7窗口最大化和最小化快捷键 最大化:window+↑ 最小化:window+↓

  2. Windows核心编程 第六章 线程基础知识 (下)

    6.6 线程的一些性质 到现在为止,讲述了如何实现线程函数和如何让系统创建线程以便执行该函数.本节将要介绍系统如何使这些操作获得成功. 图6 - 1显示了系统在创建线程和对线程进行初始化时必须做些什么 ...

  3. 深入浅出带你玩转sqlilabs(一)

    一.MySQL数据库结构分层 1.1库名,表名,列名,数据库用户等 Mysql数据库结构示例: 数据库A zblog = www.zblog.com 表名 列名(字段) 数据 数据库B dede = ...

  4. Java并发容器篇

    作者:汤圆 个人博客:javalover.cc 前言 断断续续一个多月,也写了十几篇原创文章,感觉真的很不一样: 不能说技术有很大的进步,但是想法确实跟以前有所不同: 还没开始的时候,想着要学的东西太 ...

  5. Day005 for循环

    for循环 虽然所有循环结构都可以用while或者do-while表示,但java提供了另一种语句--for循环,使一些循环结构变得更加简单. for循环语句是支持迭代的一种通用结构,是最有效.最灵活 ...

  6. 【vue】报错This dependency was not found

    报错 ERROR Failed to compile with 1 errors 10:33:34 ├F10: PM┤ This dependency was not found: * @/views ...

  7. 第一章 FreeBSD之系统安装

    一.默认选择 >>[Boot Multi User],按回车键 二.默认选择 >> [Install] 三.选择默认的键盘设置 >>[Select] 四.配置主机名 ...

  8. Pytest自动化测试-简易入门教程(03)

    今天分享内容的重点,和大家来讲一下我们的测试框架--Pytest 讲到这个框架的话呢,可能有伙伴就会问老师,我在学习自动化测试过程中,我们要去学一些什么东西? 第一个肯定要学会的是一门编程语言,比如说 ...

  9. IO异步,读写压缩文件,监控文件系统

    这节结尾IO,讲一下异步操作文件,读写压缩文件,监控文件系统这三个知识点. 异步操作文件:     说到异步,必然要了解的是async和await这两个关键字(异步详情点击基于任务的异步编程(Task ...

  10. 21.File和IO流

    IO就可以对文件进行读写 File表示要读写的文件在哪,也可以对文件进行创建,删除等操作 小结: IO流是什么? 1.可以将数据从本地文件中读取出来 2.可以将数据从内存保存到本地文件 File类时什 ...