1. 基于 kernel 的 SPMD 并行编程

1.1 向量加法 kernel(device 代码)

// Device Code
// Compute vector sum C = A + B
// 每个 thread 执行一次成对加法
__global__ void vecAddKernel(float* A, float* B, float* C, int n)
{
int i = threadIdx.x + blockDim.x * blockIdx.x;
if(i < n) C[i] = A[i] + B[i];
}

1.2 向量加法 kernel lauch(host 代码)

// Host Code
void vecAdd(float* h_A, float* h_B, float* h_C, int n)
{
// 省略了 d_A、d_B、d_C 的 allocate 和 copy
// 运行 ceil(n/256.0) blocks,每个 block 包含 256 个 thread
// ceil 函数可确保有足够的 thread 覆盖所有元素
vecAddKernel<<<ceil(n/256.0), 256>>>(d_A, d_B, d_C, n);
}

表达 ceil 函数的等效方法:

// Host Code
void vecAdd(float* h_A, float* h_B, float* h_C, int n)
{
dim3 DimGrid((n-1)/256 + 1, 1, 1);
dim3 DimBlock(256, 1, 1);
vecAddKernel<<<DimGrid, DimBlock>>>(d_A, d_B, d_C, n);
}

1.3 CUDA 函数声明

  • __device__

    • 在 device 执行,仅从 device 调用
    • 可以和 __host__ 同时调用,不可以和 __global__ 同时调用
  • __global__

    • 在 device 上执行,从 host 中调用(一些特定的 GPU 也可以从 device 上调用)
    • 内核函数必须返回 void,不支持可变参数,不能成为类成员函数
    • 注意用 __global__ 定义的 kernel 是异步的,这意味着 host 不会等待 kernel 执行完就执行下一步
  • __host__

    • 在 host 上执行,仅从 host 上调用,一般省略不写
    • 可以和 __device__,不可以和 __global__ 同时调用,此时函数会在 device 和 host 都编译。

2. 多维 kernel 配置

2.1 多维 grid

2.2 使用二维网格处理图片

在 GPU 计算中,图像被划分为多个小块,每个小块由一个 block 进行处理。每个 block 内部包含多个 thread,这些 thread 协同工作以并行处理图像数据。

2.3 C/C++ 中的行优先布局

在这种布局中,矩阵中的元素按行顺序连续存储在内存中。具体来说,所有行的元素依次排列在一维的内存空间中。

例如,对于一个 4x4 的矩阵,元素 \(M_{0,0}, M_{0,1}, M_{0,2}, M_{0,3}\) 按顺序首先存储,然后是 \(M_{1,0}, M_{1,1}, M_{1,2}, M_{1,3}\),依此类推。公式 Row * Width + Col 用于计算矩阵中每个元素在一维内存数组中的线性位置。例如图中标注的元素 \(M_{2,1}\) 的位置通过公式 \(2∗4+1=9\) 计算得到。

2.4 PictureKernel 源代码

__global__ void PictureKernel(float* d_Pin, float* d_Pout, int height, int width)
{
// 计算 d_Pin 和 d_Pout 元素的 row
int Row = blockIdx.y * blockDim.y + threadIdx.y; // 计算 d_Pin 和 d_Pout 元素的 column
int Col = blockIdx.x * blockDim.x + threadIdx.x; // 如果在范围内,每个 thread 计算 d_Pout 的一个元素
if((Row < height) && (Col < width)){
d_Pout[Row * width + Col] = 2.0 * d_Pin[Row * width + Col]; // 将每个 pixel 值缩放 2.0
}
}

2.5 Launch PictureKernel 的 host 代码

// 假设图片大小为 m × n
// y 维度上有 m 个 pixel,x 维度上有 n 个 pixel
// 输入 d_Pin 已被 allocate 并 copy 到 device
// 输出 d_Pout 已被 allocate 到 device
dim3 DimGrid((n-1)/16 + 1, (m-1)/16 + 1, 1);
dim3 DimBlock(16, 16, 1);
PictureKernel<<<DimGrid, DimBlock>>>(d_Pin, d_Pout, m, n);

2.6 用 16×16 block 覆盖 62×76 大小的图片

block 中并非所有 thread 都遵循相同的控制流路径。

3. 彩色-灰度图像处理示例

3.1 RGB 转换为灰度

灰度数字图像是指每个 pixel 的值只包含强度信息的图像。

  • 对 \((I,J)\) 处的每个 pixel \((r,g,b)\) 进行处理:
\[grayPixel[I,J] = 0.21*r + 0.71*g + 0.07*b
\]
  • 这只是一个点积 \(<[r,g,b],[0.21,0.71,0.07]>\),常数与输入的 RGB 空间有关。

3.2 RGB 转灰度代码

# define CHANNELS 3 // 我们有 3 个与 RGB 相对应的通道
// 输入图像以无符号字符 [0, 255] 编码
__global__ void colorConvert(unsigned char* grayImage, unsigned char* rgbImage, int width, int height)
{
int x = threadIdx.x + blockIdx.x * blockDim.x;
int y = threadIdx.y + blockIdx.y * blockDim.y;
if(x < width && y < height){
// 获取灰度图像的 1D 坐标
int grayOffeset = y * width + x;
// 可以认为 RGB 图像的 columns 是灰度图像的 CHANNEL 倍
int rgbOffset = grayOffset * CHANNELS;
unsigned char r = rgbImage[rgbOffset]; // red value for pixel
unsigned char g = rgbImage[rgbOffset + 1]; // green value for pixel
unsigned char b = rgbImage[rgbOffset + 2]; // blue value for pixel
// 进行重新缩放并存储
// 我们用浮点常量进行乘法运算
grayImage[grayOffset] = 0.21f*r + 0.71f*g + 0.07f*b;
}
}

4. 图像模糊示例

4.1 图像模糊

  • 模糊块(Blurring Box)

4.2 作为 2D Kernel 的图像模糊代码

__global__ void blurKernel(unsigned char* in, unsigned char* out, int w, int h)
{
int Col = blockIdx.x * blockDim.x + threadIdx.x;
int Row = blockIdx.y * blockDim.y + threadIdx.y; if(Col < w && Row < h){
int pixVal = 0;
int pixels = 0; // 获取周围 2xBLUR_SIZE x 2xBLUR_SIZE 方框的平均值
for(int blurRow = -BLUR_SIZE; blurRow < BLUR_SIZE+1; ++blurRow){
for(int blurCol = -BLUR_SIZE; blurCol < BLUR_SIZE+1; ++blurCol){
int curRow = Row + blurRow;
int curCol = Col + blurCol;
// 验证图像像素是否有效
if(curRow > -1 && curRow < h && curCol > -1 && curCol < w){
pixVal += in[curRow * w + curCol];
pixels++; // 跟踪累计总数中的像素数
}
}
}
// 写出新的 pixel 值
out[Row * w + Col] = (unsigned char)(pixVal / pixels);
}
}

5. 线程调度(Thread Scheduling)

5.1 透明扩展性(Transparent Scalability)

  • block 是 GPU 的工作单元,它们可以在任何顺序下执行,彼此之间没有执行依赖关系。
  • 硬件可随时自由地将 block 分配给任何处理器
    • 一个 CUDA kernel 可以在任意数量的并行处理器上扩展,无论处理器数量如何,Block的分配是动态的

5.2 示例:执行 thread block

  • thread 按 block 粒度分配给流式多处理器(SM,Streaming Multiprocessors)

    • 在资源允许的情况下,每个 SM 最多可连接 32 个 block
    • Volta SM 最多可使用 2048 个 thread
      • 可能是 \(256\ (threads/block)\ *\ 8\ blocks\)
      • 或 \(512\ (threads/block)\ *\ 4\ blocks\) 等
  • SM 维护 thread / block idx #s:每个SM都会跟踪它所管理的线程和线程块索引,以便于调度和管理。

  • SM 管理和调度 thread 执行

5.3 作为调度单位的 Warp

  • 每个 block 以 32-thread Warp 执行(每个 warp 包含 32 个线程)

    • 实施决策,而非 CUDA 编程模型的一部分
    • Warp 是 SM 中的调度单位
    • Warp 中的 thread 以 SIMD 方式执行
    • 未来的 GPU 可能会在每个 warp 中使用不同数量的 thread

5.3.1 Warp 示例

  • 如果一个 SM 有 3 个 block,每个区块有 256 个 thread,那么一个 SM 有多少个 Warp?

    • 每个 block 分为 \(256/32 = 8\) 个 Warp
    • 共有 \(8 * 3 = 24\) 个 Warp

5.4 线程调度

  • SM 实现零开销 Warp 调度

    • 下一条指令的操作数已准备就绪的 Warp 可执行(如果数据未准备好(例如由于内存延迟),该 warp 将会停滞,SM 会调度另一个 warp 执行)
    • 符合条件的 warp 会根据优先调度策略被选择执行
    • 当一个 warp 被选中执行时,warp 内的所有线程执行相同的指令(这是因为 GPU 采用 SIMT(单指令多线程) 模型,虽然每个线程处理的数据可能不同,但它们共享相同的指令流,使得并行执行更加高效。)

5.5 block 粒度考虑因素

  • 对于使用多个 block 进行矩阵乘法运算的 Volta,每个 block 应该有 \(4*4\)、\(8*8\) 还是 \(30*30\) 个 thread?

    • 对于 \(4*4\),每个 block 有 16 个 thread。每个 SM 最多可容纳 2048 个 thread,也就是 128 个 block。然而,每个 SM 最多只能容纳 32 个 block,因此每个 SM 只能容纳 512 个 thread!
    • 对于 \(8*8\),每个 block 有 64 个 thread。由于每个 SM 最多可容纳 2048 个 thread,因此它最多可容纳 32 个 block 并实现满负荷运行,除非有其他资源方面的考虑因素。
    • 对于 \(30*30\),每个 block 将有 900 个 thread。对于 Volta 来说,一个 SM 只能容纳 2 个 block,因此只能使用 \(1800/2048\) 个 SM thread 容量。

参考文献

[1] CUDA编程入门极简教程 - 知乎 (zhihu.com)

CUDA编程学习 (2)——CUDA并行性模型的更多相关文章

  1. CUDA编程学习笔记1

    CUDA编程模型是一个异构模型,需要CPU和GPU协同工作. host和device host和device是两个重要的概念 host指代CPU及其内存 device指代GPU及其内存 __globa ...

  2. CUDA编程学习相关

    1. CUDA编程之快速入门:https://www.cnblogs.com/skyfsm/p/9673960.html 2. CUDA编程入门极简教程:https://blog.csdn.net/x ...

  3. CUDA编程学习(一)

    /****c code****/ #include<stdio.h> int main() { printf("Hello world!\n); ; } /****CUDA co ...

  4. cuda编程学习6——点积dot

    __shared__ float cache[threadPerBlock];//声明共享内存缓冲区,__shared__ __syncthreads();//对线程块中的线程进行同步,只有都完成前面 ...

  5. cuda编程学习5——波纹ripple

    /共有DIM×DIM个像素,每个像素对应一个线程dim3 blocks(DIM/16,DIM/16);//2维dim3 threads(16,16);//2维kernel<<<blo ...

  6. cuda编程学习4——Julia

    书上的例子编译会有错误,修改一下行即可. __device__ cuComplex(float a,float b):r(a),i(b){} /* ========================== ...

  7. cuda编程学习3——VectorSum

    这个程序是把两个向量相加 add<<<N,1>>>(dev_a,dev_b,dev_c);//<N,1>,第一个参数N代表block的数量,第二个参数1 ...

  8. cuda编程学习2——add

    cudaMalloc()分配的指针有使用限制,设备指针的使用限制总结如下: 1.可以将其传递给在设备上执行的函数 2.可以在设备代码中使用其进行内存的读写操作 3.可以将其传递给在主机上执行的函数 4 ...

  9. cuda编程学习1——hello world!

    将c程序最简单的hello world用cuda编写在GPU上执行,以下为代码: #include<iostream>using namespace std;__global__ void ...

  10. CUDA编程学习笔记2

    第二章 cuda代码写在.cu/.cuh里面 cuda 7.0 / 9.0开始,NVCC就支持c++11 / 14里面绝大部分的语言特性了. Dim3 __host__ __device__ dim3 ...

随机推荐

  1. 首次在WebAPI中写单元测试

    xUnit 这次我使用的是xUnit测试框架,而不是VS自带的MSTest框架.在添加新建项目时选择xUnit测试项目就行了. 目前只体验到了一个差别,即xUnit可以使用特性向测试方法传参,而不用在 ...

  2. CF Pinely Round 4

    https://codeforces.com/contest/1991 \(-122=2019\) D \(1,3,4,6\) 构成团,所以答案下界为 \(4\) 按模 \(4\) 染色.同色的二进制 ...

  3. Notepad++作死,国产文本编辑器Notepad--发布

    作死的Notepad++ Notepad 和 Notepad++ 都是基于 Windows 的文本编辑器,通常用于编写和编辑纯文本文件. 这两个应用程序都是简单的轻量级程序,提供基本的文本编辑功能. ...

  4. Microsoft Build 2023 After Party (Placeholder)

    一年过去了,微软BUILD又回来了! https://build.microsoft.com/en-US/home This is a placeholder page for Microsoft B ...

  5. Vue使用v-for 循环生成tabs 标签页

    实现最终效果: template代码: activeName:默认第一个显示的tab <el-tabs v-model="activeName" type="car ...

  6. SAR靶机笔记

    SAR 靶机笔记 概述 SAR 是 Vulnhub 上的靶机,大家可以去 vulnhub 网站上去进行下载. 这里有链接: https://download.vulnhub.com/sar/sar.z ...

  7. Go plan9 汇编: 打通应用到底层的任督二脉

    原创文章,欢迎转载,转载请注明出处,谢谢. 0. 前言 作为一个严肃的 Gopher,了解汇编是必须的.本汇编系列文章会围绕基本的 Go 程序介绍汇编的基础知识. 1. Go 程序到汇编 首先看一个简 ...

  8. 万字长文带你窥探Spring中所有的扩展点

    写在前面 Spring的核心思想就是容器,当容器refresh的时候,外部看上去风平浪静,其实内部则是一片惊涛骇浪,汪洋一片.Springboot更是封装了Spring,遵循约定大于配置,加上自动装配 ...

  9. 为何不要随便用from xx import *

    新单位,新工作,远程办公,你想想有多麻烦吧. 一块块看每个模块的详细功能. 看到一个函数,返回值也是一个函数,这本来没啥难的,但是文件里只出现一次.怎么都找不到来自哪个文件,后来全项目搜才找到,原来来 ...

  10. Angular Material 18+ 高级教程 – Material Ripple

    介绍 Ripple (波纹) 是 Material Design 中一个标志性的特色. 点击 button 会溅起水波的感觉. 参考 Docs – Ripples When to use it? 一般 ...