GPU 编程入门到精通(四)之 GPU 程序优化
博主因为工作其中的须要,開始学习 GPU 上面的编程,主要涉及到的是基于 GPU 的深度学习方面的知识,鉴于之前没有接触过 GPU 编程。因此在这里特地学习一下 GPU 上面的编程。有志同道合的小伙伴。欢迎一起交流和学习,我的邮箱:
caijinping220@gmail.com 。
使用的是自己的老古董笔记本上面的 Geforce 103m 显卡,尽管显卡相对于如今主流的系列已经很的弱。可是对于学习来说,还是能够用的。本系列博文也遵从由简单到复杂。记录自己学习的过程。
0. 文件夹
- GPU 编程入门到精通(一)之 CUDA 环境安装
- GPU 编程入门到精通(二)之 执行第一个程序
- GPU 编程入门到精通(三)之 第一个 GPU 程序
- GPU 编程入门到精通(四)之 GPU 程序优化
- GPU 编程入门到精通(五)之 GPU 程序优化进阶
1. 数组平方和并行化
GPU 编程入门到精通(三)之 第一个 GPU 程序 中讲到了怎样利用
CUDA5.5 在 GPU 中执行一个程序。通过程序的执行。我们看到了 GPU 确实能够作为一个运算器。可是,我们在前面的样例中并没有正真的发挥 GPU 并行处理程序的能力。也就是说之前的样例仅仅利用了 GPU 的一个线程,没有发挥程序的并行性。
先来说说 CUDA5.5 中 GPU 的架构。
它是由 grid 组成。每一个 grid 又能够由 block 组成,而每一个 block 又能够细分为 thread。所以,线程是我们处理的最小的单元了。
接下来的样例通过改动前一个样例,把数组切割成若干个组(每一个组由一个线程实现),每一个组计算出一个和,然后在 CPU 中将分组的这几个和加在一起,得到终于的结果。这样的思想叫做归约 。
事实上和分治思想几乎相同,就是先将大规模问题分解为小规模的问题,最后这些小规模问题整合得到终于解。
因为我的 GPU 支持的块内最大的线程数是 512 个,即
中的
cudaGetDeviceProperties
属性。
maxThreadsPerBlock
怎样获取这个属性。请參看 GPU 编程入门到精通(二)之 执行第一个程序 这一章节。
我们使用 512 个线程来实现并行加速。
好了,接下来就是敲代码的时候了。
1.1. 改动代码
首先,在程序头部添加一个关于线程数量的宏定义:
// ======== define area ========
#define DATA_SIZE 1048576 // 1M
#define THREAD_NUM 512 // thread num
当中,DATA_SIZE 表示处理数据个数, THREAD_NUM 表示我们将要使用 512 个线程。
其次,改动 GPU 部分的内核函数
const int size = DATA_SIZE / THREAD_NUM;
const int tid = threadIdx.x;
int tmp_sum = 0; for (int i = tid * size; i < (tid + 1) * size; i++) {
tmp_sum += data[i] * data[i];
}
sum[tid] = tmp_sum;
}
此内核程序的目的是把输入的数据分摊到 512 个线程上去计算部分和,而且 512 个部分和存放到 sum 数组中,最后在 CPU 中对 512 个部分和求和得到终于结果。
此处对数据的遍历方式请注意一下,我们是依据顺序给每个线程的,也就是例如以下表格所看到的:
线程编号 数据下标 0 0 ~ 2047 … … … … 511 1046528 ~ 1048575 然后,改动主函数部分
主函数部分,仅仅须要把 sum 改成数组就能够,而且设置一下调用 GPU 内核函数的方式。// malloc space for datas in GPU
cudaMalloc((void**) &sum, sizeof(int) * THREAD_NUM); // calculate the squares's sum
squaresSum<<<1, THREAD_NUM, 0>>>(gpuData, sum, time);
最后,在 CPU 内添加部分和求和的代码
// print result
int tmp_result = 0;
for (int i = 0; i < THREAD_NUM; ++i) {
tmp_result += result[i];
}
printf("(GPU) sum:%d time:%ld\n", tmp_result, time_used);
1.2. 编译执行
编译后,执行结果例如以下所看到的:
2. 性能分析
经过改动以后的程序,比之前的快了将近 36 倍(能够參考博文
GPU 编程入门到精通(三)之 第一个 GPU 程序 进行比較),可见并行化处理还是存在优势的。
只是细致想一下,我们使用了 512 个线程。 但是性能怎么才提升了 36 倍,不应该是 512 倍吗???
这里就涉及到内存的存取模式了,显卡上面的内存是 DRAM,是效率最高的存取方式,它是一种连续的存取方式。 前面我们的程序确实的连续读取的呀,都挨个读取了。怎么还是没有达到预期的效果呢???
这里还须要考虑 thread 的运行方式。GPU 编程入门到精通(三)之 第一个 GPU 程序 中说到,当一个
thread 在等待内存数据的时候, GPU 就会切换到下一个 thread。
所以。实际运行的顺序类似于 thread0 —> thread1 —> … … —> thread511。
这就导致了同一个 thread 在读取内存是连续的。 可是对于总体而言,运行的过程中读取就不是连续的了(这里自己细致想想,就明确了)。所以,正确的做法例如以下表格所看到的:
线程编号 | 数据下标 |
---|---|
0 | 0 ~ 512 |
… … | … … |
511 | 511 ~ 1023 |
依据这个原理,改动内核函数例如以下:
for (int i = tid; i < DATA_SIZE; i += THREAD_NUM) {
tmp_sum += data[i] * data[i];
}
编译执行后结果例如以下所看到的:
改动后程序。比之前的又快了 13 倍左右,可见。对内存的读取方式对于性能的影响非常大。
至此。并行化后的程序较未并行化之前的程序,速度上快了 493 倍左右,可见,基本上发挥了 512 个线程的优势。
让我们再来分析一下性能:
此 GPU 消耗的时钟周期: 1595788 cycles
GeForce G 103M 的 clockRate: 1.6 GHz
所以能够计算出 GPU 上执行时间是: 时钟周期 / clockRate = 997.3675 us
1 M 个 int 型数据有 4M Byte 的数据量,实际使用的 GPU 内存带宽是:数据量 / 执行时间 = 4.01 GB/s
再来看看我的 GPU GeForce 103m 的内存带宽:执行 SDK 文件夹以下 /samples/1_Utilities/bandwidthTest
执行后结果例如以下所看到的:
通过与系统參数的对照,能够知道,基本上达到了系统的极限性能。
这一篇博文介绍了怎样通过利用线程达到程序的并行计算。而且通过优化内存读取方式,实现对程序的优化。通过这个程序,能够学会使用 CUDA 线程的一般流程。下一部分。将进一步分析程序可优化的一些细节。
欢迎大家和我一起讨论和学习 GPU 编程。
caijinping220@gmail.com
http://blog.csdn.net/xsc_c
GPU 编程入门到精通(四)之 GPU 程序优化的更多相关文章
- GPU 编程入门到精通(五)之 GPU 程序优化进阶
博主因为工作其中的须要,開始学习 GPU 上面的编程,主要涉及到的是基于 GPU 的深度学习方面的知识.鉴于之前没有接触过 GPU 编程.因此在这里特地学习一下 GPU 上面的编程. 有志同道合的小伙 ...
- GPU 编程入门到精通(三)之 第一个 GPU 程序
博主因为工作其中的须要.開始学习 GPU 上面的编程,主要涉及到的是基于 GPU 的深度学习方面的知识,鉴于之前没有接触过 GPU 编程,因此在这里特地学习一下 GPU 上面的编程.有志同道合的小伙伴 ...
- 微博,and java 多线程编程 入门到精通 将cpu 的那个 张振华
http://down.51cto.com/data/2263476 java 多线程编程 入门到精通 将cpu 的那个 张振华 多个用户可以同时用一个 vhost,但是vhost之间是隔离的. ...
- cg语言学习&&阳春白雪GPU编程入门学习
虽然所知甚少,但康大的<GPU编程与Cg编程之阳春白雪下里巴人>确实带我入了shader的门,在里面我第一次清晰地知道了“语义”的意思,非常感谢. 入门shader,我觉得可以先读3本书: ...
- Python基本语法[二],python入门到精通[四]
在上一篇博客Python基本语法,python入门到精通[二]已经为大家简单介绍了一下python的基本语法,上一篇博客的基本语法只是一个预览版的,目的是让大家对python的基本语法有个大概的了解. ...
- VS2010/MFC编程入门之三十四(菜单:VS2010菜单资源详解)
上一节讲了标签控件Tab Control以后,常用控件的内容就全部讲完了,当然并没有包括所有控件,主要是一些很常用很重要的控件.本节开始鸡啄米将为大家讲解菜单的概念及使用. 菜单简介 菜单在界面设计中 ...
- C语言编程入门之--第四章C语言基本数据类型
导读:C语言程序中经常涉及一些数学计算,所以要熟悉其基本的数据类型.数据类型学习起来比较枯燥,不过结合之前的内存概念,以及本节的字节概念,相信数据类型也就不难理解了.本章从二进制的基本概念开始,然 ...
- MyBatis从入门到精通(四):MyBatis XML方式的基本用法之增删改
最近在读刘增辉老师所著的<MyBatis从入门到精通>一书,很有收获,于是将自己学习的过程以博客形式输出,如有错误,欢迎指正,如帮助到你,不胜荣幸! 1. insert用法 1.1 简单的 ...
- iOS开发-UI 从入门到精通(四)
一.UITextField 1.UITextField是什么? (1)UITextField(输入框):是控制文本输入和显示的控件.在App中UITextField出现频率也比较高: (2)iOS系统 ...
随机推荐
- maven,阿里云国内镜像,提高jar包下载速度
镜像 maven默认会从中央仓库下载jar包,这个仓库在国外,而且全世界的人都会从这里下载,所以下载速度肯定是非常慢的.镜像就相当于是中央仓库的一个副本,内容和中央仓库完全一样,目前有不少国内镜像,其 ...
- 解决IIS 不能下载.exe.config文件的方法
IIS允许下载".config"文件 Config文件是web的配置文件,默认是不允许下载的,就算在MIME中配置“application/octet-stream”,也是下载不了 ...
- 牛客网java基础知识
1.java把表示范围大的数转换为表示范围小的数,需要强制类型转换. Java中,数据类型分为基本数据类型(或叫做原生类.内置类型)和引用数据类型.原生类型为基本数据类型int和布尔值可以相互转换吗? ...
- pytest文档11-assert断言
前言 断言是写自动化测试基本最重要的一步,一个用例没有断言,就失去了自动化测试的意义了.什么是断言呢? 简单来讲就是实际结果和期望结果去对比,符合预期那就测试pass,不符合预期那就测试 failed ...
- 如何修改容器内的/etc/resolv.conf
源由不表,暂且略过. 直接说workaround. 因为openshift的模式,/etc/resolv.conf是在pod生成的时候插入的,写入的是宿主机的ip作为dns的寻址,如果需要修改的化,需 ...
- 机器学习: 神经网络中的Error函数
利用神经网络做分类的时候,可以将神经网络看成一个mapping function,从输入到输出经过复杂的非线性变换.而输出的预测值与实际的目标值总是存在一定偏差的,一般利用这种偏差建立error 函数 ...
- 学会了 Vim 还有必要用 GitHub Atom 或者 Sublime Text 么?
亦俊 ,90后,Vim 专栏作者 563 人赞同 Vim 知乎专栏:http://zhuanlan.zhihu.com/hack-vim 用过 [ Visual Studio 2015 ] [ Sub ...
- WEB渗透之对于开了3389远程连接不上的总结
对于开了3389,连接不上,有几个方面的原因,我来总结下,哇咔咔,这几天提好几台服务器都TM这样,分析下, 原因1.远程桌面端口被更改.2.对方服务器处于内网. 3.防火墙拦截.4.TCP/IP安全限 ...
- JavaScript获得页面区域大小的代码
var Client = { viewportWidth: function() { return self.innerWidth || (document.documentE ...
- log4net 使用笔记
一.Log4net特征 1.自定义日志输出级别 Log4net将日志分为五个级别优先级从高到低依次:FATAL > ERROR > WARN > INFO > DEBUG,此外 ...