NVIDIA CUDA C++ 编译器 nvcc 基于每个内核,既可以用来产生特定于体系结构的 cubin 文件,又能产生前向兼容的 PTX 版本。

每个 cubin 文件针对特定的计算能力版本,并且仅与相同主要版本号的 GPU 架构向前兼容。

例如,针对计算能力 3.0 的 cubin 文件支持所有计算能力 3.x 设备,但不支持计算能力 5.x 或 6.x 设备。

基于这个原因,为了确保与应用程序发布后引入的 GPU 架构的向前兼容性,建议所有应用程序都包含其内核的 PTX 版本。

注意:CUDA 运行时应用程序同时包含针对给定体系结构的 cubin 和 PTX 代码,默认情况下自动使用 cubin,严格保留 PTX 路径以实现前向兼容性。

对于已经包含了其内核的 PTX 版本的应用程序应在基于 Volta 的 GPU 上原样工作。而对于通过 cubin 文件仅支持特定 GPU 架构的应用程序,需要更新以提供与 Volta 兼容的 PTX 或 cubins 。

1. 不同NVIDIA显卡对应的SM架构(CUDA arch and CUDA gencode)

1.1 NVIDIA的nvcc sm标志是干什么用的

使用NVCC编译器编译CUDA源文件时,架构标志位 -arch 指明了CUDA文件编译产生的结果所依赖的NVIDIA GPU架构的名称,而生成码 -gencode 允许生成更多的PTX文件,并且对不同的架构可以重复许多次。

当编译CUDA代码时,只能根据一种架构进行编译,用来匹配使用最多的GPU显卡。

这使得运行时间最短,因为code generation总是发生在编译期间,如果你只指明了-gencode而忽略了-arch,GPU code generation会由CUDA驱动在JIT编译器产生。

若要加速CUDA编译,就减少不相关-gencode标志的数量,然而有时我们却希望更好的CUDA向后兼容性,只能添加更多的-gencode。

1.2 首先检查你使用的GPU型号和CUDA版本

以下是支持的 sm 变量和相对应的典型显卡型号

CUDA 7以上版本

  • Fermi (CUDA 3.2 一直到 CUDA 8) (deprecated from CUDA 9):

SM20 or SM_20, compute_30 – 比较旧的显卡 GeForce 400, 500, 600, GT-630

  • Kepler (CUDA 5及以上):

SM30 or SM_30, compute_30 – Kepler architecture (generic – Tesla K40/K80, GeForce 700, GT-730)

Adds support for unified memory programming

SM35 or SM_35, compute_35 – More specific Tesla K40

Adds support for dynamic parallelism. Shows no real benefit over SM30 in my experience.

SM37 or SM_37, compute_37 – More specific Tesla K80

Adds a few more registers. Shows no real benefit over SM30 in my experience

  • Maxwell (CUDA 6及以上版本):

SM50 or SM_50, compute_50 – Tesla/Quadro M series

SM52 or SM_52, compute_52 – Quadro M6000 ,

GeForce 900,

GTX-970, GTX-980, GTX Titan X

SM53 or SM_53, compute_53 – Tegra (Jetson) TX1 / Tegra X1

  • Pascal (CUDA 8及以上版本)

SM60 or SM_60, compute_60 – Quadro GP100,

Tesla P100,

DGX-1 (Generic Pascal)

SM61 or SM_61, compute_61 – GTX 1080, GTX 1070, GTX 1060, GTX 1050, GTX 1030,

Titan Xp,

Tesla P40, Tesla P4,

Discrete GPU on the NVIDIA Drive PX2

SM62 or SM_62, compute_62 – Integrated GPU on the NVIDIA Drive PX2, Tegra (Jetson) TX2

  • Volta (CUDA 9及以上版本)

SM70 or SM_70, compute_70 – DGX-1 with Volta,

Tesla V100,

GTX 1180 (GV104),

Titan V, Quadro GV100

SM72 or SM_72, compute_72 – Jetson AGX Xavier

  • Turing (CUDA 10及以上版本)

SM75 or SM_75, compute_75 – GTX Turing – GTX 1660 Ti,

RTX 2060, RTX 2070, RTX 2080,

Titan RTX,

Quadro RTX 4000, Quadro RTX 5000, Quadro RTX 6000, Quadro RTX 8000

1.3 根据 NVIDIA 的官方说明

nvcc的 -gencode= 命令行选项的 arch= 指定前端编译目标,并且必须始终为PTX版本。

code= 指定后端编译目标,可以是cubin或PTX或两者均可。

只有由 code= 指定的后端目标版本将保留在结果二进制文件中,至少包含一个PTX以提供Volta兼容。

1.4 参数示例

取得最大兼容性的CUDA 7标志示例

-arch=sm_30 -gencode=arch=compute_20,code=sm_20 -gencode=arch=compute_30,code=sm_30 -gencode=arch=compute_50,code=sm_50 -gencode=arch=compute_52,code=sm_52 -gencode=arch=compute_52,code=compute_52

CUDA 8

-arch=sm_30 -gencode=arch=compute_20,code=sm_20 -gencode=arch=compute_30,code=sm_30 -gencode=arch=compute_50,code=sm_50 \
-gencode=arch=compute_52,code=sm_52 -gencode=arch=compute_60,code=sm_60 \
-gencode=arch=compute_61,code=sm_61 -gencode=arch=compute_61,code=compute_61

CUDA 9 Volta 型号显卡

-arch=sm_50 -gencode=arch=compute_50,code=sm_50 -gencode=arch=compute_52,code=sm_52 -gencode=arch=compute_60,code=sm_60 \
-gencode=arch=compute_61,code=sm_61 -gencode=arch=compute_70,code=sm_70 \
-gencode=arch=compute_70,code=compute_70

CUDA 10 Turing 型号显卡

-arch=sm_50 -gencode=arch=compute_50,code=sm_50 -gencode=arch=compute_52,code=sm_52 -gencode=arch=compute_60,code=sm_60 \
-gencode=arch=compute_61,code=sm_61 -gencode=arch=compute_70,code=sm_70 \
-gencode=arch=compute_75,code=sm_75 -gencode=arch=compute_75,code=compute_75

2. 基于NVIDIA Volta架构为GPU构建 CUDA 应用程序

第一步:检查 Volta 兼容的设备代码编译到了应用程序之中

2.1.1 使用 CUDA Toolkit 8.0 及之前版本的应用程序

使用CUDA Toolkit版本2.1至8.0构建的CUDA应用程序兼容Volta,只要构建时包含了其内核的PTX版本。可以通过如下步骤检测:

  1. 下载安装最新版驱动 http://www.nvidia.com/drivers
  2. 设置环境变量 CUDA_FORCE_PTX_JIT=1
  3. 登录应用程序

第一次登录CUDA应用程序时,CUDA驱动将会为每个CUDA内核进行JIT编译PTX,在本地cubin代码中使用。

如果按上述说明设置了环境变量登录之后正常工作,说明已经成功验证了Vlota兼容性。(注意:确保在验证之后将CUDA_FORCE_PTX_JIT复位!)

2.1.2 使用CUDA Toolkit 9.0的应用程序

使用CUDA Toolkit 9.0构建的CUDA应用程序兼容Volta,只要构建时包含了Volta-native cubin格式的内核或PTX格式的内核或两者都有。

第二步:构建 Volta 支持的应用程序

当一个 CUDA 应用程序登录内核时,CUDA Runtime 会决定系统中每个 GPU 的计算能力,并利用这一信息自动寻找该内核最匹配的 cubin 或 PTX 版本。

如果 cubin 文件支持当前可用的目标 GPU 的体系架构,就是用该 cubin 文件;否则 CUDA Runtime 将加载 PTX ,并在登录之前 JIT 编译此 PTX 以得到本地 cubin 格式的 GPU cubin 文件。

如果两者都不满足,内核登录失败。

构建本地 cubin 格式或至少支持 Volta 的 PTX 的应用程序的方法取决于使用的 CUDA Toolkit 版本。

提供本地 cubin 文件的主要优势如下:

节省了终端用于 JIT 编译仅支持 PTX 的内核的时间。所有的内核编译成应用程序之后在加载时必须要有本地二进制文件,或者将即刻从 PTX 进行编译构建,包括来自所有库文件的内核,这些库文件链接到应用程序,

即使该应用程序永远都不会登录这些内核。特别是,当使用比较大的库时,JIT 编译过程将消耗相当的时间。

CUDA 驱动将缓存这些 PTX JIT 产生的 cubin 结果,这多数情况下对一个使用者只有一次时间消耗,但如果有可能我们还是希望避免。

PTX JIT 编译内核通常并不能很好地利用较新的 GPU 的架构特征,也即是说本地编译产生的代码可能运行得更快或更准确。

2.2.1 使用 CUDA Toolkit 8.0 及之前版本的应用程序

CUDA Toolkit 8.0 或更早版本中包含的编译器会生成 Maxwell 和 Pascal 等早期 NVIDIA 架构的本地 cubin 文件,但无法生成 Volta 架构的 cubin 文件。

为了在使用 8.0 或更早版本的 CUDA Toolkit 时支持 Volta 和将来的体系结构,编译器必须为每个内核生成 PTX 版本。

下面是可以用来构建 mykernel.cu 的编译器设置,mykernel.cu 可以在 Maxwell 或 Pascal 设备上本地运行,在 Volta 设备上通过 PTX JIT 运行。

注意

  • compute_XX 指的是 PTX 版本
  • sm_XX 指的是 cubin 版本
  • nvcc 的 -gencode= 命令行选项的 arch= 指定前端编译目标,并且必须始终为 PTX 版本。
  • code= 指定后端编译目标,可以是 cubin 或 PTX 或两者均可。
  • 只有由 code= 指定的后端目标版本将保留在结果二进制文件中,至少包含一个PTX以提供Volta兼容性。

Mac/Linux

/usr/local/cuda/bin/nvcc -gencode=arch=compute_50,code=sm_50 -gencode=arch=compute_52,code=sm_52 -gencode=arch=compute_60,code=sm_60 \
-gencode=arch=compute_61,code=sm_61 -gencode=arch=compute_61,code=compute_61 \
-O2 -o mykernel.o -c mykernel.cu

另外,你可能熟悉 nvcc 命令行选项 -arch=sm_XX,它的简写相当于上面使用的更明确的 -gencode= 命令行选项。

-arch=sm_XX 展开成如下形式

-gencode=arch=compute_XX,code=sm_XX

-gencode=arch=compute_XX,code=compute_XX

然而,虽然 -arch=sm_XX 命令行选项确在默认情况下导致包含PTX后端目标,它一次只能指定一个目标 cubin 体系结构,并且不能使用多个 -arch= 选项相同的 nvcc 命令行,这就是上面的示例显式使用 -gencode= 的原因。

2.2.2 使用CUDA Toolkit 9.0的应用程序

使用CUDA Toolkit 9.0版本,nvcc可以生成Volta体系结构(计算能力7.0)的本地cubin文件。

使用CUDA Toolkit 9.0时,为了确保nvcc将为所有最新的GPU架构以及PTX版本生成cubin文件,以便于将来的GPU体系架构进行前向兼容,可以像下面的示例一样在nvcc命令行指定适当的 -gencode= 参数。

Mac/Linux

/usr/local/cuda/bin/nvcc -gencode=arch=compute_50,code=sm_50 -gencode=arch=compute_52,code=sm_52 -gencode=arch=compute_60,code=sm_60 \
-gencode=arch=compute_61,code=sm_61 -gencode=arch=compute_70,code=sm_70 \
-gencode=arch=compute_70,code=compute_70 -O2 -o mykernel.o -c mykernel.cu
  • compute_XX 指PTX版本
  • sm_XX 指cubin版本
  • nvcc的 -gencode= 命令行选项的 arch= 指定前端编译目标,并且必须始终为 PTX 版本。
  • code= 指定后端编译目标,可以是 cubin 或 PTX 或两者均可。
  • 只有由 code= 指定的后端目标版本将保留在结果二进制文件中,至少包含一个 PTX 以提供未来体系架构的兼容性。
  • 同时,注意 CUDA 9.0 移除了对计算能力 2.x 设备的支持,任何 compute_2x 及 sm_2x 需要从编译选项中移除。

2.2.3 独立线程调度兼容性

Volta体系架构在线程束中引入了独立线程调度。

如果开发人员对扭曲同步性做出了假设,那么与以前的体系架构相比,此功能可以更改参与执行的代码的线程集合。

更多细节问题和正确操作请参考 CUDA C++ 编程指南 中的计算能力7.0部分。

为了帮助迁移,Volta开发人员可以通过下面编译选项的组合选择加入Pascal调度模型。

ncvv -arch=compute_60 -code=sm_70

参考

[1] Matching SM architectures (CUDA arch and CUDA gencode) for various NVIDIA cards

[2] Volta Compatibility Guide for CUDA Applications

CUDA架构及对应编译参数的更多相关文章

  1. CUDA编程-(1)Tesla服务器Kepler架构和万年的HelloWorld

    结合CUDA范例精解以及CUDA并行编程.由于正在学习CUDA,CUDA用的比较多,因此翻译一些个人认为重点的章节和句子,作为学习,程序将通过NVIDIA K40服务器得出结果.如果想通过本书进行CU ...

  2. CUDA与OpenCL架构

    CUDA与OpenCL架构 目录 CUDA与OpenCL架构 目录 1 GPU的体系结构 1.1 GPU简介 1.2 GPU与CPU的差异 2 CUDA架构 2.1 硬件架构 2.1.1 GPU困境 ...

  3. 【并行计算-CUDA开发】从零开始学习OpenCL开发(一)架构

    多谢大家关注 转载本文请注明:http://blog.csdn.net/leonwei/article/details/8880012 本文将作为我<从零开始做OpenCL开发>系列文章的 ...

  4. CUDA 并行编程简介

    前言 并行就是让计算中相同或不同阶段的各个处理同时进行.目前有很多种实现并行的手段,如多核处理器,分布式系统等.本专题的文章将主要介绍使用 GPU 实现并行的方法.参考本专题文章前请务必搭建好 CUD ...

  5. 从零開始学习OpenCL开发(一)架构

    多谢大家关注 转载本文请注明:http://blog.csdn.net/leonwei/article/details/8880012 本文将作为我<从零開始做OpenCL开发>系列文章的 ...

  6. CUDA编程(六)进一步并行

    CUDA编程(六) 进一步并行 在之前我们使用Thread完毕了简单的并行加速,尽管我们的程序运行速度有了50甚至上百倍的提升,可是依据内存带宽来评估的话我们的程序还远远不够.在上一篇博客中给大家介绍 ...

  7. CUDA 编程

    作者:MingChaoSun 原文:https://blog.csdn.net/sunmc1204953974/article/details/51000970 一.CPU和GPU 上图是CPU与GP ...

  8. cuda、cuDNN的相关内容

    1.nvidia与cuda需要满足关系: https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html/ 2.cuda与cudn ...

  9. 封装cuda/cudnn写卷积网络前向计算程序

    目录 基本编译配置 一些常识 BN层的坑 cuda基础 向cuda核函数传入结构体指针? 参考:http://galoisplusplus.coding.me/blog/2018/05/22/cuda ...

随机推荐

  1. leetcode105 从前序与中序遍历序列构造二叉树

    如何遍历一棵树 有两种通用的遍历树的策略: 宽度优先搜索(BFS) 我们按照高度顺序一层一层的访问整棵树,高层次的节点将会比低层次的节点先被访问到. 深度优先搜索(DFS) 在这个策略中,我们采用深度 ...

  2. Scala学习笔记三

    scala变量理解: package com.cxy.scala object Hello { def main(args: Array[String]): Unit = { println(&quo ...

  3. 豆瓣 URLError: <urlopen error [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:719)>

    import urllib.request as urlrequest #import ssl#ssl._create_default_https_context = ssl._create_unve ...

  4. Mybatis拦截器实现原理深度分析

    1.拦截器简介 拦截器可以说使我们平时开发经常用到的技术了,Spring AOP.Mybatis自定义插件原理都是基于拦截器实现的,而拦截器又是以动态代理为基础实现的,每个框架对拦截器的实现不完全相同 ...

  5. 堆的python实现及其应用

    堆的概念 优先队列(priority queue)是一种特殊的队列,取出元素的顺序是按照元素的优先权(关键字)大小,而不是进入队列的顺序,堆就是一种优先队列的实现.堆一般是由数组实现的,逻辑上堆可以被 ...

  6. R 语言学习笔记(1)——R 工作空间与输入输出

    什么是工作空间? 工作空间(workspace)就是当前 R 的工作环境,它储存着所有用户定义的对象(objectives)包括了向量.矩阵.函数.数据框.列表等. 处理 R 文件的工作流程 #设置当 ...

  7. Mac系统安装文件提示文件已损坏,打不开解决办法

    Mac系统安装文件提示文件已损坏,打不开解决办法: 修改系统配置:系统偏好设置 - 安全性与隐私 - 任何来源”.如果没有“任何来源”这个选项,是因为你的系统是macOS Sierra 10.12,苹 ...

  8. 一道题反映Java的类初始化过程

    Java的类初始化过程: 1. 父类的static成员变量,static语句块. 2. 子类的static成员变量,static语句块. 3. 父类的普通成员变量,构造函数. 4. 子类的普通成员变量 ...

  9. ios开发入门- WebView使用

    转自:http://mahaile.blog.51cto.com/2891586/1021515/ 目标 : webview使用 在一些移动app中,有时程序会载入 外表的html 界面, andro ...

  10. componentWillMount VS componentDidMount

    前言 这与React组件的生命周期有关,组件挂载时有关的生命周期有以下几个: constructor(){} componentWillMount(){} render(){} componentDi ...