程序参考文章:http://blog.csdn.net/gamesdev/article/details/17535755  程序优化2

简介:CUDA ,MPI,Hadoop都是并行运算的工具。CUDA是基于NVIDIA GPU芯片计算。

阐述:GPU有很多个核(几百个),每个核可以跑一个线程,多个线程组成一个单位叫做块。

举个例子:

有三个向量 int a, b, c; 我们要计算a和b的向量之和存放到c中。

一般C语言:for(int i=0; i<10; i++)  c = a + b; 这个程序是顺序执行的!

CUDA编程做法:

GPU中的每个线程(核)有一个独立序号叫index,那么只要序号从0到9的线程执行c[index] = a[index] + b[index]; 就可以实现以上的for循环。

GPU的可贵之处就是,可以并发运行多个线程,相当于一个时间内赋值10次。

////////////////////////
cuda.cu
////////////////////////
#include <stdio.h>
#include <cuda_runtime.h> //运行在GPU
__global__ void vectorADD(int* a, int* b, int* c)
{
int index = threadIdx.x; //获得当前线程的序号
if(index < blockDim.x)
c = a + b;
}
int main ()
{
//定义10个GPU运算线程
int N = 10;
// 本地开辟三个数组存放我们要计算的内容
int* h_a = (int*) malloc (N * sizeof(int));
int* h_b = (int*) malloc (N * sizeof(int));
int* h_c = (int*) malloc (N * sizeof(int));
// 初始化数组A, B和C
for(int i=0; i<N; i++) {
h_a = i;
h_b = i;
h_c = 0;
}
// 计算10个int型需要的空间
int size = N * sizeof(int);
// 在GPU上分配同样大小的三个数组
int* d_a;
int* d_b;
int* d_c;
cudaMalloc((void**)&d_a, size);
cudaMalloc((void**)&d_b, size);
cudaMalloc((void**)&d_c, size); // 把本地的数组拷贝进GPU内存
cudaMemcpy(d_a, h_a, size, cudaMemcpyHostToDevice);
cudaMemcpy(d_b, h_b, size, cudaMemcpyHostToDevice);
cudaMemcpy(d_c, h_c, size, cudaMemcpyHostToDevice); // 定义一个GPU运算块 由 10个运算线程组成
dim3 DimBlock = N;
// 通知GPU用10个线程执行函数vectorADD
vectorADD<<<1, DimBlock>>>(d_a, d_b, d_c);
// 将GPU运算完的结果复制回本地
cudaMemcpy(h_c, d_c, size, cudaMemcpyDeviceToHost);
// 释放GPU的内存
cudaFree(d_a);
cudaFree(d_b);
cudaFree(d_c);
// 验证计算结果
for(int j=0; j<N; j++)
printf("%d ", h_c);
printf("\n");
}

警告!:这个例子是编译不通过的;

首先:对 threadidx的使用,只能在CU文件里面;

其次:在cu文件里初始化数组是错误的: int * a ; a = new int [x];是错误的;  并且 malloc也是不可以的;

再者:文件路径里面不能包含中文,否则会出现 MSB8791 这种错误!

2. 利用CUDA并行计算点云法线

两个函数都存在于CU文件里! 通过外部CPP文件函数进行调用

void normalEstimate(
pcl::PointCloud<pcl::PointXYZRGB> &input ,
pcl::PointCloud<pcl::PointXYZRGB> &output,
int k_,
float search_parameter_,
int THREAD_NUM
)

//运行在GPU//cal the Normal

__global__ void normalEstimateSingle(pcl::PointCloud<pcl::PointXYZRGB> &input ,pcl::PointCloud<pcl::PointXYZRGB> &output, int* nn_indices ,int*   nn_dists, int Gap, float search_parameter_)
{
const size_t computeSize =input.size() / Gap;
const size_t tID = size_t(threadIdx.x );
int Mark;
clock_t startTime; // 开始计时
if ( tID == 0 ) startTime =clock( );// 选择任意一个线程进行计时
//Thread loop!//循环发现邻域!寻找法线!
for ( size_t idx = tID *computeSize; idx < ( tID + 1 ) * computeSize && idx < input.size(); ++idx ) {
// pOut[threadIdx.x] += pIn[i] * pIn[i];
Mark = pcl::searchForNeighbors (idx, search_parameter_, nn_indices, nn_dists);//对第IDX个建立索引!
if (Mark == 0){
output.points[idx].normal[0] = output.points[idx].normal[1] = output.points[idx].normal[2] = output.points[idx].curvature = std::numeric_limits<float>::quiet_NaN ();
continue;
}
else {
if (!isFinite (input[idx]) || Mark == 0){
output.points[idx].normal[0] = output.points[idx].normal[1] = output.points[idx].normal[2] = output.points[idx].curvature = std::numeric_limits<float>::quiet_NaN ();
continue;
}
}
pcl::computePointNormal (input, nn_indices,output.points[idx].normal[0], output.points[idx].normal[1], output.points[idx].normal[2], output.points[idx].curvature);
 pcl::flipNormalTowardsViewpoint (input_->points[idx], vpx_, vpy_, vpz_,
output.points[idx].normal[0], output.points[idx].normal[1], output.points[idx].normal[2]); }
if ( tID == 0 ) *pElapsed =clock( ) - startTime;// 结束计时,返回至主程序
}

//运行在CPU端!

// as the input
extern "C" void normalEstimate(
pcl::PointCloud<pcl::PointXYZRGB> &input ,
pcl::PointCloud<pcl::PointXYZRGB> &output,
int k_,
float search_parameter_,
int THREAD_NUM
)
{
// 在GPU上分配同样大小的三个数组
pcl::PointCloud<pcl::PointXYZRGB> &inputX ;
pcl::PointCloud<pcl::PointXYZRGB> &outputX;
int* nn_indices ;
int* nn_dists; // 1、设置设备
cudaError_t cudaStatus = cudaSetDevice( 0 );// 只要机器安装了英伟达显卡,那么会调用成功
if ( cudaStatus != cudaSuccess )
{
fprintf( stderr, "调用cudaSetDevice()函数失败!" );
return ;//false;
} // 使用CUDA内存分配器分配host端
//cudaError_t cudaStatus = cudaMallocHost( &inputX, input.size() * sizeof( pcl::pointXYZRGB ) );
//cudaError_t cudaStatus = cudaMallocHost( &outputX, output.size() * sizeof( pcl::Normal ) ); // 2、分配显存空间
cudaError_t cudaStatus = cudaMalloc( &inputX, input.size() * sizeof( pcl::pointXYZRGB ) );
cudaError_t cudaStatusX = cudaMalloc( &outputX, output.size() * sizeof( pcl::Normal ) ); // cudaStatus = cudaMalloc( (void**)&pData, DataSize * sizeof( int) );
if ( cudaStatus != cudaSuccess)
{
fprintf( stderr, "调用cudaMalloc()函数初始化显卡中数组时失败!" );
break;
} // 3、将宿主程序数据复制到显存中
cudaError_t cudaStatus2 = cudaMemcpy( inputX, input, input.size() * sizeof( pcl::pointXYZRGB ),cudaMemcpyHostToDevice );
cudaError_t cudaStatusX2 = cudaMemcpy(outputX,output,output.size() * sizeof( pcl::pointXYZRGB ),cudaMemcpyHostToDevice );
if ( cudaStatus != cudaSuccess)
{
fprintf( stderr, "调用cudaMemcpy()函数初始化宿主程序数据数组到显卡时失败!" );
break;
} //cudaMalloc( (void**)&nn_dists, k_ * sizeof( int) );
//cudaMalloc( (void**)&nn_indices, k_ * sizeof( int) );
//cudaMalloc( (void**)&Normal3f, 3 * sizeof( float) ); // 4、执行程序,宿主程序等待显卡执行完毕
normalEstimateSingle<<<1, THREAD_NUM>>>( inputX,outputX, nn_indices, nn_dists, THREAD_NUM ,search_parameter_);
//normalEstimateSingle(pcl::PointCloud<pcl::PointXYZRGB> &input ,pcl::PointCloud<pcl::PointXYZRGB> &output, int* nn_indices ,int* nn_dists, int Gap) // 5、查询内核初始化的时候是否出错
cudaStatus = cudaGetLastError( );
if ( cudaStatus != cudaSuccess)
{
fprintf( stderr, "显卡执行程序时失败!" );
break;
} // 6、与内核同步等待执行完毕
cudaStatus = cudaDeviceSynchronize( );
if ( cudaStatus != cudaSuccess)
{
fprintf( stderr, "在与内核同步的过程中发生问题!" );
break;
} // 7、获取数据 //只复制出法线即可!
cudaStatus = cudaMemcpy(output,outputX,output.size() * sizeof( pcl::pointXYZRGB ),cudaMemcpyHostToDevice );
if ( cudaStatus != cudaSuccess)
{
fprintf( stderr, "在将结果数据从显卡复制到宿主程序中失败!" );
break;
} cudaFree( outputX );
cudaFree( inputX );
}

注意事项:运行在GPU的函数,只能是原子函数,详情请见 《高性能并行编程实践》

CUDA 编程实例:计算点云法线的更多相关文章

  1. CUDA编程学习笔记1

    CUDA编程模型是一个异构模型,需要CPU和GPU协同工作. host和device host和device是两个重要的概念 host指代CPU及其内存 device指代GPU及其内存 __globa ...

  2. CUDA编程前言

    GPU架构 GPU特别适用于 密集计算,高度可并行计算,图形学 晶体管主要被用于 执行计算,而不是缓存数据,控制指令流 GPU计算的历史 2001/2002 -- 研究人员把GPU当做数据并行协处理器 ...

  3. PHP多进程编程实例

    这篇文章主要介绍了PHP多进程编程实例,本文讲解的是在Linux下实现PHP多进程编程,需要的朋友可以参考下 羡慕火影忍者里鸣人的影分身么?没错,PHP程序是可以开动影分身的!想完成任务,又觉得一个进 ...

  4. c#摄像头编程实例 (转)

    c#摄像头编程实例 摄像头编程 安装摄像头后,一般可以找到一个avicap32.dll文件 这是一个关于设想头的类 using  system;using  System.Runtime.Intero ...

  5. 不同版本CUDA编程的问题

    1 无法装上CUDA的toolkit 卸载所有的NVIDIA相关的app,包括NVIDIA的显卡驱动,然后重装. 2之前的文件打不开,one or more projects in the solut ...

  6. cuda编程基础

    转自: http://blog.csdn.net/augusdi/article/details/12529247 CUDA编程模型 CUDA编程模型将CPU作为主机,GPU作为协处理器(co-pro ...

  7. CUDA学习笔记(一)——CUDA编程模型

    转自:http://blog.sina.com.cn/s/blog_48b9e1f90100fm56.html CUDA的代码分成两部分,一部分在host(CPU)上运行,是普通的C代码:另一部分在d ...

  8. CUDA编程

    目录: 1.什么是CUDA 2.为什么要用到CUDA 3.CUDA环境搭建 4.第一个CUDA程序 5. CUDA编程 5.1. 基本概念 5.2. 线程层次结构 5.3. 存储器层次结构 5.4. ...

  9. JAX-RS 2.0 REST客户端编程实例

    JAX-RS 2.0 REST客户端编程实例 2014/01/28 | 分类: 基础技术, 教程 | 0 条评论 | 标签: JAX-RS, RESTFUL 分享到:3 本文由 ImportNew - ...

随机推荐

  1. 【剑指Offer】11、二进制中1的个数

      题目描述:   输入一个整数,输出该数二进制表示中1的个数.其中负数用补码表示.   解题思路:   本题有以下两个解决方案:   (1)依次判断每一位.判断的方法是先与1相与,为1则说明该位为1 ...

  2. java获取当前日期的前一天,前一月和前一年

    核心:使用Calendar的add(int field, int amount)方法 Calendar ca = Calendar.getInstance();//得到一个Calendar的实例 ca ...

  3. node对称加密(转载)

    https://www.cnblogs.com/laogai/p/4664917.html

  4. SQL中IS NOT NULL与!=NULL的区别

    平时经常会遇到这两种写法:IS NOT NULL与!=NULL.也经常会遇到数据库有符合条件!=NULL的数据,但是返回为空集合.实际上,是由于对二者使用区别理解不透彻. 默认情况下,推荐使用 IS ...

  5. Mysql入门详解

    目录 数据库之Mysql 一 .简单了解数据库 二.Mysql的使用 三.多表查询 数据库之Mysql 本篇文章为观看某教学视频后所作个人总结 一 .简单了解数据库 1.1常见关系型数据库 mysql ...

  6. Java中==和equals()的区别

  7. Python之Django的Model2

    一.创建数据库 创建数据库 进入数据库: mysql -uroot -p 创建数据库: CREATE DATABASE test1 CHARSET=utf8; 连接数据库 虚拟环境中安装数据库模块:p ...

  8. 2.1 SVN的安装

     一.SVN客户端安装 运行TortoiseSVN-1.6.6.17493-win32-svn-1.6.6.msi程序, 开始安装 点击Next, 下一步 选择 I accept 接受, 点击Next ...

  9. Python列表的复制

    1.直接按名字赋值: my_habit = ['game', 'running'] friend_habit = my_habit my_habit.append('swimming') friend ...

  10. Netty学习总结(3)——Netty百万级推送服务

    1. 背景 1.1. 话题来源 最近很多从事移动互联网和物联网开发的同学给我发邮件或者微博私信我,咨询推送服务相关的问题.问题五花八门,在帮助大家答疑解惑的过程中,我也对问题进行了总结,大概可以归纳为 ...