使用shared memory 计算矩阵乘法 (其实并没有加速多少)
#include "cuda_runtime.h"
#include "device_launch_parameters.h"
#include "device_functions.h" #include <stdio.h>
#include <windows.h> #include <m_tools.h> cudaError_t addWithCuda(int *c, const int *a, const int *b, unsigned int size); #define TILE_WIDTH 16 __global__ void MatrixMulKernle(int m, int n, int k, int *A, int *B, int *C)
{
//申请共享内存,存在于每个block中
__shared__ int ds_A[TILE_WIDTH][TILE_WIDTH];
__shared__ int ds_B[TILE_WIDTH][TILE_WIDTH]; //简化坐标记法,出现下面6个表示的地方就是并行的地方。
int bx = blockIdx.x;
int by = blockIdx.y;
int tx = threadIdx.x;
int ty = threadIdx.y; //确定结果矩阵中的行和列
int iy = by * TILE_WIDTH + ty;
int ix = bx * TILE_WIDTH + tx; if (iy >= m || ix >= k) {
return;
}
int gw = gridDim.x;
int gh = gridDim.y; //临时变量
int Cvalue = 0; //循环读入A,B瓦片,计算结果矩阵,分阶段进行计算
for (int t = 0; t < (n + TILE_WIDTH - 1) / TILE_WIDTH; ++t)
{
ds_A[tx][ty] = A[iy*n + t*TILE_WIDTH + tx];
ds_B[tx][ty] = B[(t*TILE_WIDTH + ty)*k + ix];
__syncthreads(); for (int i = 0; i < TILE_WIDTH; ++i)
Cvalue += ds_A[i][ty] * ds_B[tx][i];//从shared memory中取值
C[iy*k + ix] = Cvalue;
}
} //不适用shared memory
__global__ void addKernel(int *c, const int *a, const int *b)
{
//const int bs = CUDA_LG::block_size;
//BLOCK_SIZE;
int ix = blockIdx.x * blockDim.x + threadIdx.x,
iy = blockIdx.y * blockDim.y + threadIdx.y;
if (ix >= 100 || iy >= 100) {
return;
} int sum = 0; for (int i = 0; i != 200; ++i) { int ta = a[iy * 100 + i]; int tb = b[i * 100 + ix]; sum += ta*tb;
}
c[iy * 100 + ix] = sum; } int main()
{
const int arow = 100;
const int acol = 200;
const int brow = 200;
const int bcol = 100; const int arraySize = arow*acol; int * a = new int[arraySize];
int * b = new int[arraySize];
int * c = new int[arraySize/2]; for (int j = 0; j != arow; ++j) {
for (int i = 0; i != acol; ++i) {
a[j*acol + i] = i;
}
} for (int j = 0; j != brow; ++j) {
for (int i = 0; i != bcol; ++i) {
b[j*bcol + i] = i;
}
}
addWithCuda(c, a, b, arraySize); cudaDeviceReset(); printf("c0=%d c1=%d c[3,50]=%d \n", c[0], c[1],c[3*100+50]);
delete[] a;
delete[] b;
delete[] c; system("pause");
return 0;
} // Helper function for using CUDA to add vectors in parallel.
cudaError_t addWithCuda(int *c, const int *a, const int *b, unsigned int size)
{
int *dev_a = 0;
int *dev_b = 0;
int *dev_c = 0;
cudaError_t cudaStatus; // Choose which GPU to run on, change this on a multi-GPU system.
cudaStatus = cudaSetDevice(0);
cudaStatus = cudaMalloc((void**)&dev_c, size * sizeof(int));
cudaStatus = cudaMalloc((void**)&dev_a, size * sizeof(int));
cudaStatus = cudaMalloc((void**)&dev_b, size * sizeof(int)); cudaStatus = cudaMemcpy(dev_a, a, size * sizeof(int), cudaMemcpyHostToDevice);
cudaStatus = cudaMemcpy(dev_b, b, size * sizeof(int), cudaMemcpyHostToDevice); int thread_x = 100;
int thread_y = 100;
dim3 block(TILE_WIDTH, TILE_WIDTH);
int grid_w = (thread_x + block.x - 1) / block.x;
int grid_h = (thread_y + block.y - 1) / block.y;
dim3 grid(grid_w, grid_h);
// Launch a kernel on the GPU with one thread for each element. TIME_INIT;
TIME_MARK("t1");
for(int i=0;i!=10000;++i)
addKernel << < grid, block >> > (dev_c, dev_a, dev_b);//486ms
TIME_MARK("t2");
for (int i = 0; i != 10000; ++i)
MatrixMulKernle << < grid, block >> >(100, 200, 100, dev_a, dev_b, dev_c);//1069ms
TIME_MARK("t3");
TIME_PRINT;
cudaStatus = cudaGetLastError();
cudaStatus = cudaDeviceSynchronize();
cudaStatus = cudaMemcpy(c, dev_c, size/2 * sizeof(int), cudaMemcpyDeviceToHost); Error:
cudaFree(dev_c);
cudaFree(dev_a);
cudaFree(dev_b); return cudaStatus;
}
使用shared memory 计算矩阵乘法 (其实并没有加速多少)的更多相关文章
- OpenCL NativeKernel 计算矩阵乘法
▶ 使用函数 clEnqueueNativeKernel 来调用 C/C++ 本地函数(在 OpenCL 中将其看做回调函数),使用本地编译器(而不是 OpenCL 编译器)来编译和执行内核 ● 代码 ...
- 向MapReduce转换:通过部分成绩计算矩阵乘法
代码共分为四部分: <strong><span style="font-size:18px;">/*** * @author YangXin * @info ...
- 蓝桥杯 BASIC_17 矩阵乘法 (矩阵快速幂)
问题描述 给定一个N阶矩阵A,输出A的M次幂(M是非负整数) 例如: A = 1 2 3 4 A的2次幂 7 10 15 22 输入格式 第一行是一个正整数N.M(1<=N<=30, 0& ...
- 有关CUBLAS中的矩阵乘法函数
关于cuBLAS库中矩阵乘法相关的函数及其输入输出进行详细讨论. ▶ 涨姿势: ● cuBLAS中能用于运算矩阵乘法的函数有4个,分别是 cublasSgemm(单精度实数).cublasDgemm( ...
- 矩阵乘法的运算量计算(华为OJ)
题目地址: https://www.nowcoder.com/practice/15e41630514445719a942e004edc0a5b?tpId=37&&tqId=21293 ...
- 2.3CUDA矩阵乘法
CPU 矩阵乘法 能相乘的两个矩阵,必须满足一个矩阵的行数和第二个矩阵的列数相同. A(N*P) * B(P*M) = C(N*M). 其中P是行数,N是列数, 从宽高的角度来说,即 A的宽度和B的高 ...
- CUDA 矩阵乘法终极优化指南
作者:马骏 | 旷视 MegEngine 架构师 前言 单精度矩阵乘法(SGEMM)几乎是每一位学习 CUDA 的同学绕不开的案例,这个经典的计算密集型案例可以很好地展示 GPU 编程中常用的优化技巧 ...
- *HDU2254 矩阵乘法
奥运 Time Limit: 1000/1000 MS (Java/Others) Memory Limit: 65536/65536 K (Java/Others)Total Submissi ...
- *HDU 1757 矩阵乘法
A Simple Math Problem Time Limit: 3000/1000 MS (Java/Others) Memory Limit: 32768/32768 K (Java/Ot ...
随机推荐
- spring (反射+代理+DI+AOP)
spring https://baijiahao.baidu.com/s?id=1620606848227713760&wfr=spider&for=pc 反射 https://bl ...
- osg ifc数据渲染着色器
//顶点着色器 static const char* vertShader = { "varying vec4 color;\n" "void main(void)\n& ...
- osg 加载 fbx文件
#ifdef _WIN32 #include <Windows.h> #endif // _WIN32 #include <osg/Group> #include <os ...
- 阶段5 3.微服务项目【学成在线】_day17 用户认证 Zuul_07-用户认证-认证服务查询数据库-解析申请令牌错误信息
1.2.5.4 解析申请令牌错误信息 当账号输入错误应该返回用户不存在的信息,当密码错误要返回用户名或密码错误信息,业务流程图如下: 修改申请令牌的程序解析返回的错误: 由于restTemplate收 ...
- Paper reading: High-Fidelity Pose and Expression Normalization for Face Recognition in the Wild(HPEN)
1. Introduction 人脸识别受到各种因素影响,其中最重要的两个影响是 pose 和 expression, 这两个因素会对 intra-person 变化产生极大的影响, 有时候甚至会超过 ...
- wordpress可以自定义获取相关文章的代码
将下面的代码插入functions.php中 获取相关文章的策略: 手动指定 > 标签 >分类 > 随机 //相关文章 function add_related_posts($con ...
- 如何抓住ECS的命门,让我们的学习事半功倍
导读 这是一篇老文写与2019年5月 我们说如何提高我们的学习效率,有人说一本书一般只会讲一个知识点,那我们学习ECS 如何抓住学习的重点,提高学习效率.经过本人一段时间的学习总结,总于找到了一个便捷 ...
- (生鲜项目)06. django的view实现商品列表页
使用原始的django的View来返回json格式的商品列表 目的是回顾一些django的基础知识, 好与后面的RESTful做对比 goods.views_base.py from django.v ...
- HTML让字体闪动和滚动显示
存粹的HTML让字体闪动显示: <html> <head> <title>TEST</title> <style type="text/ ...
- js前端 多条件筛选查询
一.前言 在做项目中,遇到多条件筛选案例.实现完成以后,我将我做的代码分享在这里,希望可以帮助到其他朋友. 二.效果截图 三.实现代码 首先我先类型.类别.职位分成三块来处理,如果传到服务器端的话,就 ...