CUDA架构及对应编译参数
NVIDIA CUDA C++ 编译器 nvcc 基于每个内核,既可以用来产生特定于体系结构的 cubin 文件,又能产生前向兼容的 PTX 版本。
每个 cubin 文件针对特定的计算能力版本,并且仅与相同主要版本号的 GPU 架构向前兼容。
例如,针对计算能力 3.0 的 cubin 文件支持所有计算能力 3.x 设备,但不支持计算能力 5.x 或 6.x 设备。
基于这个原因,为了确保与应用程序发布后引入的 GPU 架构的向前兼容性,建议所有应用程序都包含其内核的 PTX 版本。
注意:CUDA 运行时应用程序同时包含针对给定体系结构的 cubin 和 PTX 代码,默认情况下自动使用 cubin,严格保留 PTX 路径以实现前向兼容性。
对于已经包含了其内核的 PTX 版本的应用程序应在基于 Volta 的 GPU 上原样工作。而对于通过 cubin 文件仅支持特定 GPU 架构的应用程序,需要更新以提供与 Volta 兼容的 PTX 或 cubins 。
1. 不同NVIDIA显卡对应的SM架构(CUDA arch and CUDA gencode)
1.1 NVIDIA的nvcc sm标志是干什么用的
使用NVCC编译器编译CUDA源文件时,架构标志位 -arch 指明了CUDA文件编译产生的结果所依赖的NVIDIA GPU架构的名称,而生成码 -gencode 允许生成更多的PTX文件,并且对不同的架构可以重复许多次。
当编译CUDA代码时,只能根据一种架构进行编译,用来匹配使用最多的GPU显卡。
这使得运行时间最短,因为code generation总是发生在编译期间,如果你只指明了-gencode而忽略了-arch,GPU code generation会由CUDA驱动在JIT编译器产生。
若要加速CUDA编译,就减少不相关-gencode标志的数量,然而有时我们却希望更好的CUDA向后兼容性,只能添加更多的-gencode。
1.2 首先检查你使用的GPU型号和CUDA版本
以下是支持的 sm 变量和相对应的典型显卡型号
CUDA 7以上版本
- Fermi (CUDA 3.2 一直到 CUDA 8) (deprecated from CUDA 9):
SM20 or SM_20, compute_30 – 比较旧的显卡 GeForce 400, 500, 600, GT-630
- Kepler (CUDA 5及以上):
SM30 or SM_30, compute_30 – Kepler architecture (generic – Tesla K40/K80, GeForce 700, GT-730)
Adds support for unified memory programming
SM35 or SM_35, compute_35 – More specific Tesla K40
Adds support for dynamic parallelism. Shows no real benefit over SM30 in my experience.
SM37 or SM_37, compute_37 – More specific Tesla K80
Adds a few more registers. Shows no real benefit over SM30 in my experience
- Maxwell (CUDA 6及以上版本):
SM50 or SM_50, compute_50 – Tesla/Quadro M series
SM52 or SM_52, compute_52 – Quadro M6000 ,
GeForce 900,
GTX-970, GTX-980, GTX Titan X
SM53 or SM_53, compute_53 – Tegra (Jetson) TX1 / Tegra X1
- Pascal (CUDA 8及以上版本)
SM60 or SM_60, compute_60 – Quadro GP100,
Tesla P100,
DGX-1 (Generic Pascal)
SM61 or SM_61, compute_61 – GTX 1080, GTX 1070, GTX 1060, GTX 1050, GTX 1030,
Titan Xp,
Tesla P40, Tesla P4,
Discrete GPU on the NVIDIA Drive PX2
SM62 or SM_62, compute_62 – Integrated GPU on the NVIDIA Drive PX2, Tegra (Jetson) TX2
- Volta (CUDA 9及以上版本)
SM70 or SM_70, compute_70 – DGX-1 with Volta,
Tesla V100,
GTX 1180 (GV104),
Titan V, Quadro GV100
SM72 or SM_72, compute_72 – Jetson AGX Xavier
- Turing (CUDA 10及以上版本)
SM75 or SM_75, compute_75 – GTX Turing – GTX 1660 Ti,
RTX 2060, RTX 2070, RTX 2080,
Titan RTX,
Quadro RTX 4000, Quadro RTX 5000, Quadro RTX 6000, Quadro RTX 8000
1.3 根据 NVIDIA 的官方说明
nvcc的 -gencode= 命令行选项的 arch= 指定前端编译目标,并且必须始终为PTX版本。
code= 指定后端编译目标,可以是cubin或PTX或两者均可。
只有由 code= 指定的后端目标版本将保留在结果二进制文件中,至少包含一个PTX以提供Volta兼容。
1.4 参数示例
取得最大兼容性的CUDA 7标志示例
-arch=sm_30 -gencode=arch=compute_20,code=sm_20 -gencode=arch=compute_30,code=sm_30 -gencode=arch=compute_50,code=sm_50 -gencode=arch=compute_52,code=sm_52 -gencode=arch=compute_52,code=compute_52
CUDA 8
-arch=sm_30 -gencode=arch=compute_20,code=sm_20 -gencode=arch=compute_30,code=sm_30 -gencode=arch=compute_50,code=sm_50 \
-gencode=arch=compute_52,code=sm_52 -gencode=arch=compute_60,code=sm_60 \
-gencode=arch=compute_61,code=sm_61 -gencode=arch=compute_61,code=compute_61
CUDA 9 Volta 型号显卡
-arch=sm_50 -gencode=arch=compute_50,code=sm_50 -gencode=arch=compute_52,code=sm_52 -gencode=arch=compute_60,code=sm_60 \
-gencode=arch=compute_61,code=sm_61 -gencode=arch=compute_70,code=sm_70 \
-gencode=arch=compute_70,code=compute_70
CUDA 10 Turing 型号显卡
-arch=sm_50 -gencode=arch=compute_50,code=sm_50 -gencode=arch=compute_52,code=sm_52 -gencode=arch=compute_60,code=sm_60 \
-gencode=arch=compute_61,code=sm_61 -gencode=arch=compute_70,code=sm_70 \
-gencode=arch=compute_75,code=sm_75 -gencode=arch=compute_75,code=compute_75
2. 基于NVIDIA Volta架构为GPU构建 CUDA 应用程序
第一步:检查 Volta 兼容的设备代码编译到了应用程序之中
2.1.1 使用 CUDA Toolkit 8.0 及之前版本的应用程序
使用CUDA Toolkit版本2.1至8.0构建的CUDA应用程序兼容Volta,只要构建时包含了其内核的PTX版本。可以通过如下步骤检测:
- 下载安装最新版驱动 http://www.nvidia.com/drivers
- 设置环境变量 CUDA_FORCE_PTX_JIT=1
- 登录应用程序
第一次登录CUDA应用程序时,CUDA驱动将会为每个CUDA内核进行JIT编译PTX,在本地cubin代码中使用。
如果按上述说明设置了环境变量登录之后正常工作,说明已经成功验证了Vlota兼容性。(注意:确保在验证之后将CUDA_FORCE_PTX_JIT复位!)
2.1.2 使用CUDA Toolkit 9.0的应用程序
使用CUDA Toolkit 9.0构建的CUDA应用程序兼容Volta,只要构建时包含了Volta-native cubin格式的内核或PTX格式的内核或两者都有。
第二步:构建 Volta 支持的应用程序
当一个 CUDA 应用程序登录内核时,CUDA Runtime 会决定系统中每个 GPU 的计算能力,并利用这一信息自动寻找该内核最匹配的 cubin 或 PTX 版本。
如果 cubin 文件支持当前可用的目标 GPU 的体系架构,就是用该 cubin 文件;否则 CUDA Runtime 将加载 PTX ,并在登录之前 JIT 编译此 PTX 以得到本地 cubin 格式的 GPU cubin 文件。
如果两者都不满足,内核登录失败。
构建本地 cubin 格式或至少支持 Volta 的 PTX 的应用程序的方法取决于使用的 CUDA Toolkit 版本。
提供本地 cubin 文件的主要优势如下:
节省了终端用于 JIT 编译仅支持 PTX 的内核的时间。所有的内核编译成应用程序之后在加载时必须要有本地二进制文件,或者将即刻从 PTX 进行编译构建,包括来自所有库文件的内核,这些库文件链接到应用程序,
即使该应用程序永远都不会登录这些内核。特别是,当使用比较大的库时,JIT 编译过程将消耗相当的时间。
CUDA 驱动将缓存这些 PTX JIT 产生的 cubin 结果,这多数情况下对一个使用者只有一次时间消耗,但如果有可能我们还是希望避免。
PTX JIT 编译内核通常并不能很好地利用较新的 GPU 的架构特征,也即是说本地编译产生的代码可能运行得更快或更准确。
2.2.1 使用 CUDA Toolkit 8.0 及之前版本的应用程序
CUDA Toolkit 8.0 或更早版本中包含的编译器会生成 Maxwell 和 Pascal 等早期 NVIDIA 架构的本地 cubin 文件,但无法生成 Volta 架构的 cubin 文件。
为了在使用 8.0 或更早版本的 CUDA Toolkit 时支持 Volta 和将来的体系结构,编译器必须为每个内核生成 PTX 版本。
下面是可以用来构建 mykernel.cu 的编译器设置,mykernel.cu 可以在 Maxwell 或 Pascal 设备上本地运行,在 Volta 设备上通过 PTX JIT 运行。
注意
- compute_XX 指的是 PTX 版本
- sm_XX 指的是 cubin 版本
- nvcc 的 -gencode= 命令行选项的 arch= 指定前端编译目标,并且必须始终为 PTX 版本。
- code= 指定后端编译目标,可以是 cubin 或 PTX 或两者均可。
- 只有由 code= 指定的后端目标版本将保留在结果二进制文件中,至少包含一个PTX以提供Volta兼容性。
Mac/Linux
/usr/local/cuda/bin/nvcc -gencode=arch=compute_50,code=sm_50 -gencode=arch=compute_52,code=sm_52 -gencode=arch=compute_60,code=sm_60 \
-gencode=arch=compute_61,code=sm_61 -gencode=arch=compute_61,code=compute_61 \
-O2 -o mykernel.o -c mykernel.cu
另外,你可能熟悉 nvcc 命令行选项 -arch=sm_XX,它的简写相当于上面使用的更明确的 -gencode= 命令行选项。
-arch=sm_XX 展开成如下形式
-gencode=arch=compute_XX,code=sm_XX -gencode=arch=compute_XX,code=compute_XX
然而,虽然 -arch=sm_XX 命令行选项确在默认情况下导致包含PTX后端目标,它一次只能指定一个目标 cubin 体系结构,并且不能使用多个 -arch= 选项相同的 nvcc 命令行,这就是上面的示例显式使用 -gencode= 的原因。
2.2.2 使用CUDA Toolkit 9.0的应用程序
使用CUDA Toolkit 9.0版本,nvcc可以生成Volta体系结构(计算能力7.0)的本地cubin文件。
使用CUDA Toolkit 9.0时,为了确保nvcc将为所有最新的GPU架构以及PTX版本生成cubin文件,以便于将来的GPU体系架构进行前向兼容,可以像下面的示例一样在nvcc命令行指定适当的 -gencode= 参数。
Mac/Linux
/usr/local/cuda/bin/nvcc -gencode=arch=compute_50,code=sm_50 -gencode=arch=compute_52,code=sm_52 -gencode=arch=compute_60,code=sm_60 \
-gencode=arch=compute_61,code=sm_61 -gencode=arch=compute_70,code=sm_70 \
-gencode=arch=compute_70,code=compute_70 -O2 -o mykernel.o -c mykernel.cu
- compute_XX 指PTX版本
- sm_XX 指cubin版本
- nvcc的 -gencode= 命令行选项的 arch= 指定前端编译目标,并且必须始终为 PTX 版本。
- code= 指定后端编译目标,可以是 cubin 或 PTX 或两者均可。
- 只有由 code= 指定的后端目标版本将保留在结果二进制文件中,至少包含一个 PTX 以提供未来体系架构的兼容性。
- 同时,注意 CUDA 9.0 移除了对计算能力 2.x 设备的支持,任何 compute_2x 及 sm_2x 需要从编译选项中移除。
2.2.3 独立线程调度兼容性
Volta体系架构在线程束中引入了独立线程调度。
如果开发人员对扭曲同步性做出了假设,那么与以前的体系架构相比,此功能可以更改参与执行的代码的线程集合。
更多细节问题和正确操作请参考 CUDA C++ 编程指南 中的计算能力7.0部分。
为了帮助迁移,Volta开发人员可以通过下面编译选项的组合选择加入Pascal调度模型。
ncvv -arch=compute_60 -code=sm_70
参考
[1] Matching SM architectures (CUDA arch and CUDA gencode) for various NVIDIA cards
[2] Volta Compatibility Guide for CUDA Applications
CUDA架构及对应编译参数的更多相关文章
- CUDA编程-(1)Tesla服务器Kepler架构和万年的HelloWorld
结合CUDA范例精解以及CUDA并行编程.由于正在学习CUDA,CUDA用的比较多,因此翻译一些个人认为重点的章节和句子,作为学习,程序将通过NVIDIA K40服务器得出结果.如果想通过本书进行CU ...
- CUDA与OpenCL架构
CUDA与OpenCL架构 目录 CUDA与OpenCL架构 目录 1 GPU的体系结构 1.1 GPU简介 1.2 GPU与CPU的差异 2 CUDA架构 2.1 硬件架构 2.1.1 GPU困境 ...
- 【并行计算-CUDA开发】从零开始学习OpenCL开发(一)架构
多谢大家关注 转载本文请注明:http://blog.csdn.net/leonwei/article/details/8880012 本文将作为我<从零开始做OpenCL开发>系列文章的 ...
- CUDA 并行编程简介
前言 并行就是让计算中相同或不同阶段的各个处理同时进行.目前有很多种实现并行的手段,如多核处理器,分布式系统等.本专题的文章将主要介绍使用 GPU 实现并行的方法.参考本专题文章前请务必搭建好 CUD ...
- 从零開始学习OpenCL开发(一)架构
多谢大家关注 转载本文请注明:http://blog.csdn.net/leonwei/article/details/8880012 本文将作为我<从零開始做OpenCL开发>系列文章的 ...
- CUDA编程(六)进一步并行
CUDA编程(六) 进一步并行 在之前我们使用Thread完毕了简单的并行加速,尽管我们的程序运行速度有了50甚至上百倍的提升,可是依据内存带宽来评估的话我们的程序还远远不够.在上一篇博客中给大家介绍 ...
- CUDA 编程
作者:MingChaoSun 原文:https://blog.csdn.net/sunmc1204953974/article/details/51000970 一.CPU和GPU 上图是CPU与GP ...
- cuda、cuDNN的相关内容
1.nvidia与cuda需要满足关系: https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html/ 2.cuda与cudn ...
- 封装cuda/cudnn写卷积网络前向计算程序
目录 基本编译配置 一些常识 BN层的坑 cuda基础 向cuda核函数传入结构体指针? 参考:http://galoisplusplus.coding.me/blog/2018/05/22/cuda ...
随机推荐
- 京东物流出问题了?褥了30块羊毛 & 浅析系统架构
本人亲身经历,但后续的流程分析都是个人猜测的,毕竟没有实际做过这块的业务. 订单物流阻塞经过 火热的双11刚刚退去,截止今日,我在京东购买的矿泉水终于到货啦,下单两箱还只收到了一箱 :( ,从下单到收 ...
- tcp和udp的网络编程(发送消息及回复)
一.UDP 无连接的 高效的 基于数据报的 不可靠 的连接 主要的应用场景: 需要资源少,网络情况稳定的内网,或者对于丢包不敏感的应用,比如 DHCP 就是基于 UDP 协议的.不需要一对一沟 ...
- 扛把子组20191107-8 beta week 2/2 Scrum立会报告+燃尽图 07
此作业的要求参见https://edu.cnblogs.com/campus/nenu/2019fall/homework/9960 一.小组情况 队名:扛把子 组长:孙晓宇 组员:宋晓丽 梁梦瑶 韩 ...
- C语言与汇编语言混合编程实验
混合编程方法: 模块链接法 汇编指令嵌入法 1: 模块链接法则 模块链接法是指分别用汇编语言和C语言实现独立的模块(或子程序),再用链接程序把各模块生成的obj文件连接成一个可执行程序. 1:C语言调 ...
- 品优购详情页---产品详细信息区域 iteminfo_wrap
产品详细信息区域为整个大盒子命名为: iteminfo_wrap 1号盒子命名为:sku_name 2号盒子命名为:news 3号盒子命名为:summary step1:3个盒子搭建框架,以及完成前两 ...
- PowerMock学习(十一)之Mock private methods的使用
Mock private methods 就是mock私有方法啦,学到这不难发现,我们其实大部分都是通过反射去完成单元测试的,但是在实际中,某个类中的私有方法,个人不建议使用反射来测试,因为有时候会 ...
- Linux内核设计与实现笔记_1_基本概念
Linux内核设计与实现笔记_1_基本概念 操作系统 系统这个词包含了操作系统和所有运行在它上面的应用程序.操作系统是指在整个系统中负责完成分最基本功能和系统管理的那些部分,这些部分应该包括: 内核, ...
- 转载一篇关于tab键与focus的文章
Focusable HTML 元素中,并不是所有元素都可以获得焦点,有如下元素可以获得焦点: a, area, button, input, object, select, textarea,这些元素 ...
- 华为云·寻找黑马程序员#海量数据的分页怎么破?【华为云技术分享】
版权声明:本文为博主原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明. 本文链接:https://blog.csdn.net/devcloud/article/detai ...
- 区块链学习笔记:DAY01 区块链的技术原理
其实很早之前就听过区块链,也看过有关区块链的介绍,那个时候的理解主要还是一句话:分布式记账 然后开始关注比特币,听了有几年了,对于其来历.用途其实一直都是一知半解. 这次的课算是第一次以一个学员的身份 ...