▶ 八个常用的集合通信函数

▶ 规约函数 MPI_Reduce(),将通信子内各进程的同一个变量参与规约计算,并向指定的进程输出计算结果

● 函数原型

 MPI_METHOD MPI_Reduce(
_In_range_(!= , recvbuf) _In_opt_ const void* sendbuf, // 指向输入数据的指针
_When_(root != MPI_PROC_NULL, _Out_opt_) void* recvbuf, // 指向输出数据的指针,即计算结果存放的地方
_In_range_(>= , ) int count, // 数据尺寸,可以进行多个标量或多个向量的规约
_In_ MPI_Datatype datatype, // 数据类型
_In_ MPI_Op op, // 规约操作类型
_mpi_coll_rank_(root) int root, // 目标进程号,存放计算结果的进程
_In_ MPI_Comm comm // 通信子
);

● 使用范例

 {
int size, rank, data, dataCollect;
MPI_Init(NULL, NULL);
MPI_Comm_size(MPI_COMM_WORLD, &size);
MPI_Comm_rank(MPI_COMM_WORLD, &rank); data = rank;// 参与计算的数据
MPI_Reduce((void *)&data, (void *)&dataCollect, , MPI_INT, MPI_SUM, , MPI_COMM_WORLD);// 所有的进程都要调用,而不是只在目标进程中调用 MPI_Finalize();
}

● 操作类型,定义于 mpi.h

 #define MPI_OP_NULL ((MPI_Op)0x18000000)

 #define MPI_MAX     ((MPI_Op)0x58000001)
#define MPI_MIN ((MPI_Op)0x58000002)
#define MPI_SUM ((MPI_Op)0x58000003)
#define MPI_PROD ((MPI_Op)0x58000004)
#define MPI_LAND ((MPI_Op)0x58000005)// 逻辑与
#define MPI_BAND ((MPI_Op)0x58000006)// 按位与
#define MPI_LOR ((MPI_Op)0x58000007)
#define MPI_BOR ((MPI_Op)0x58000008)
#define MPI_LXOR ((MPI_Op)0x58000009)
#define MPI_BXOR ((MPI_Op)0x5800000a)
#define MPI_MINLOC ((MPI_Op)0x5800000b)// 求最小值所在位置
#define MPI_MAXLOC ((MPI_Op)0x5800000c)// 求最大值所在位置
#define MPI_REPLACE ((MPI_Op)0x5800000d)

▶ 规约并广播函数 MPI_Allreduce(),在计算规约的基础上,将计算结果分发到每一个进程中,相比于 MPI_Reduce(),只是少了一个 root 参数。除了简单的先规约再广播的方法,书中介绍了蝶形结构全局求和的方法。

● 函数原型

 _Pre_satisfies_(recvbuf != MPI_IN_PLACE) MPI_METHOD MPI_Allreduce(
_In_range_(!= , recvbuf) _In_opt_ const void* sendbuf,
_Out_opt_ void* recvbuf,
_In_range_(>= , ) int count,
_In_ MPI_Datatype datatype,
_In_ MPI_Op op,
_In_ MPI_Comm comm
);

● 使用范例

 {
int size, rank, data, dataCollect;
MPI_Init(NULL, NULL);
MPI_Comm_size(MPI_COMM_WORLD, &size);
MPI_Comm_rank(MPI_COMM_WORLD, &rank); data = rank;
MPI_Reduce((void *)&data, (void *)&dataCollect, , MPI_INT, MPI_SUM, MPI_COMM_WORLD);// 所有的进程都要调用 MPI_Finalize();
}

▶ 广播函数 MPI_Bcast(),将某个进程的某个变量的值广播到该通信子中所有进程的同名变量中

● 函数原型

 MPI_METHOD MPI_Bcast(
_Pre_opt_valid_ void* buffer, // 指向输入 / 输出数据的指针
_In_range_(>= , ) int count, // 数据尺寸
_In_ MPI_Datatype datatype, // 数据类型
_mpi_coll_rank_(root) int root, // 广播源进程号
_In_ MPI_Comm comm // 通信子
);

● 使用范例

 {
int size, rank, data;
MPI_Init(NULL, NULL);
MPI_Comm_size(MPI_COMM_WORLD, &size);
MPI_Comm_rank(MPI_COMM_WORLD, &rank); data = rank;
MPI_Bcast((void *)&data, , MPI_INT, , MPI_COMM_WORLD);// 所有的进程都要调用,调用后所有 data 均被广播源进程的值覆盖 MPI_Finalize();
}

▶ 散射函数 MPI_Scatter(),将向量数据分段发送到各进程中

● 函数原型和宏定义

 _Pre_satisfies_(sendbuf != MPI_IN_PLACE) MPI_METHOD MPI_Scatter(
_In_range_(!= , recvbuf) _In_opt_ const void* sendbuf, // 指向需要分发的数据的指针
_In_range_(>= , ) int sendcount, // 分发到每一个进程的数据量,注意不是分发的数据总量
_In_ MPI_Datatype sendtype, // 分发数据类型
_When_(root != MPI_PROC_NULL, _Out_opt_) void* recvbuf, // 指向接收的数据的指针
_In_range_(>= , ) int recvcount, // 接受数据量,不小于上面分发到每一个进程的数据量
_In_ MPI_Datatype recvtype, // 接收数据类型
_mpi_coll_rank_(root) int root, // 分发数据源进程号
_In_ MPI_Comm comm // 通信子
); // 宏定义,mpi.h
#define MPI_IN_PLACE ((void*)(MPI_Aint)-1 // MPI_Aint 为 __int64 类型,表示地址

▶ 聚集函数 MPI_Gather(),将各进程中的向量数据分段聚集到一个进程的大向量中

● 函数原型

 _Pre_satisfies_(recvbuf != MPI_IN_PLACE) MPI_METHOD MPI_Gather(
_In_opt_ _When_(sendtype == recvtype, _In_range_(!= , recvbuf)) const void* sendbuf,// 指向需要聚集的数据的指针
_In_range_(>= , ) int sendcount, // 每个进程中进行聚集的数据量,不是聚集的数据总量
_In_ MPI_Datatype sendtype, // 发送数据类型
_When_(root != MPI_PROC_NULL, _Out_opt_) void* recvbuf, // 指向接收数据的指针
_In_range_(>= , ) int recvcount, // 从每个进程接收的接收数据量,不是聚集的数据总量
_In_ MPI_Datatype recvtype, // 接收数据类型
_mpi_coll_rank_(root) int root, // 聚集数据汇进程号
_In_ MPI_Comm comm // 通信子
);

● 函数 MPI_Scatter() 和 MPI_Gather() 的范例

 {
const int dataSize = * ;
const int localSize = ;
int globalData[dataSize], localData[localSize], globalSum, i, comSize, comRank; MPI_Init(&argc, &argv);
MPI_Comm_size(MPI_COMM_WORLD, &comSize);
MPI_Comm_rank(MPI_COMM_WORLD, &comRank); if (comRank == ) // 初始化
for (i = ; i < dataSize; globalData[i] = i, i++);
for (i = ; i < localSize; localData[i++] = ); MPI_Scatter((void *)&globalData, localSize, MPI_INT, (void *)&localData, localSize, MPI_INT, , MPI_COMM_WORLD); // 分发数据
for (i = ; i < localSize; localData[i++]++);
MPI_Barrier(MPI_COMM_WORLD); // 进程同步
MPI_Gather((void *)&localData, localSize, MPI_INT, (void *)&globalData, localSize, MPI_INT, , MPI_COMM_WORLD); // 聚集数据
for (i = globalSum = ; i < dataSize; globalSum += globalData[i++]); if (comRank == )
printf("\nSize = %d, Rank = %d, result = %d\n", comSize, comRank, globalSum);
MPI_Finalize(); return ;// 输出结果:Size = 8, Rank = 0, result = 2080,表示 0 + 1 + 2 + …… + 63
}

▶ 全局聚集函数 MPI_Allgather(),将各进程的向量数据聚集为一个大向量,并分发到每个进程中,相当于各进程同步该大向量的各部分分量。相比于 MPI_Gather(),只是少了一个 root 参数。

● 函数原型

 _Pre_satisfies_(recvbuf != MPI_IN_PLACE) MPI_METHOD MPI_Allgather(
_In_opt_ _When_(sendtype == recvtype, _In_range_(!= , recvbuf)) const void* sendbuf,
_In_range_(>= , ) int sendcount,
_In_ MPI_Datatype sendtype,
_Out_opt_ void* recvbuf,
_In_range_(>= , ) int recvcount,
_In_ MPI_Datatype recvtype,
_In_ MPI_Comm comm
);

● 函数 MPI_Scatter() 和 MPI_Allgather() 的范例,相当于从上面的范例中修改了一部分

 {
const int dataSize = * ;
const int localSize = ;
int globalData[dataSize], localData[localSize], globalSum, i, comSize, comRank; MPI_Init(&argc, &argv);
MPI_Comm_size(MPI_COMM_WORLD, &comSize);
MPI_Comm_rank(MPI_COMM_WORLD, &comRank); for (i = ; i < dataSize; globalData[i] = i, i++);// 改动
for (i = ; i < localSize; localData[i++] = ); MPI_Scatter((void *)&globalData, localSize, MPI_INT, (void *)&localData, localSize, MPI_INT, , MPI_COMM_WORLD); // 分发数据
for (i = ; i < localSize; localData[i++]++);
MPI_Barrier(MPI_COMM_WORLD);
MPI_Allgather((void *)&localData, localSize, MPI_INT, (void *)&globalData, localSize, MPI_INT, MPI_COMM_WORLD); // 聚集数据,改动
for (i = globalSum = ; i < dataSize; globalSum += globalData[i++]); printf("\nSize = %d, rank = %d, result = %d\n", comSize, comRank, globalSum);// 改动
MPI_Finalize(); return ;// 输出结果,八个进程乱序输出 2080
}

▶ 前缀和函数 MPI_Scan(),将通信子内各进程的同一个变量参与前缀规约计算,并将得到的结果发送回每个进程,使用与函数 MPI_Reduce() 相同的操作类型

● 函数原型

 _Pre_satisfies_(recvbuf != MPI_IN_PLACE) MPI_METHOD MPI_Scan(
_In_opt_ _In_range_(!= , recvbuf) const void* sendbuf, // 指向参与规约数据的指针
_Out_opt_ void* recvbuf, // 指向接收规约结果的指针
_In_range_(>= , ) int count, // 每个进程中参与规约的数据量
_In_ MPI_Datatype datatype, // 数据类型
_In_ MPI_Op op, // 规约操作类型
_In_ MPI_Comm comm // 通信子
);

● 范例代码

 int main(int argc, char **argv)
{
const int nProcess = , localSize = , globalSize = localSize * nProcess;
int globalData[globalSize], localData[localSize], sumData[localSize];
int comRank, comSize, i; MPI_Init(&argc, &argv);
MPI_Comm_rank(MPI_COMM_WORLD, &comRank);
MPI_Comm_size(MPI_COMM_WORLD, &comSize); if (comRank == )
for (i = ; i < globalSize; globalData[i] = i, i++); MPI_Scatter(globalData, localSize, MPI_INT, localData, localSize, MPI_INT, , MPI_COMM_WORLD); for (i = ; i < localSize; i++)
printf("%2d, ", localData[i]); MPI_Scan(localData, sumData, localSize, MPI_INT, MPI_SUM, MPI_COMM_WORLD); for (i = ; i < localSize; i++)
printf("%2d, ", sumData[i]); MPI_Finalize();
return ;
}

● 输出结果,分别展示了 localSize 取 1 和 8 的结果,每个进程的输出中,前一半(分别为 1 个和 8 个元素)为个进程的原始数据,后一半为进行完前缀求和后的结果。注意到 localSize 取 8 时,程序将各进程保存向量的每一个元素分别进行前缀和,但同一进程中各元素之间不相互影响。

D:\Code\MPI\MPIProjectTemp\x64\Debug>mpiexec -n  -l MPIProjectTemp.exe
[] , ,
[] , ,
[] , ,
[] , ,
[] , ,
[] , ,
[] , ,
[] , ,
D:\Code\MPI\MPIProjectTemp\x64\Debug>mpiexec -n -l MPIProjectTemp.exe
[] , , , , , , , , , , , , , , , ,
[] , , , , , , , , , , , , , , , ,
[] , , , , , , , , , , , , , , , ,
[] , , , , , , , , , , , , , , , ,
[] , , , , , , , , , , , , , , , ,
[] , , , , , , , , , , , , , , , ,
[] , , , , , , , , , , , , , , , ,
[] , , , , , , , , , , , , , , , ,

▶ 规约分发函数 MPI_Reduce_Scatter(),将数据进行规约计算,结果分段分发到各进程中

● 函数原型

 _Pre_satisfies_(recvbuf != MPI_IN_PLACE) MPI_METHOD MPI_Reduce_scatter(
_In_opt_ _In_range_(!= , recvbuf) const void* sendbuf, // 指向输入数据的指针
_Out_opt_ void* recvbuf, // 指向接收数据的指针
_In_ const int recvcounts[], // 各进程接收规约结果的元素个数
_In_ MPI_Datatype datatype, // 数据类型
_In_ MPI_Op op, // 规约操作类型
_In_ MPI_Comm comm // 通信子
);

● 使用范例

 {
const int nProcess = , localSize = , globalSize = nProcess * localSize, countValue = ;
int globalData[globalSize], localData[localSize], count[localSize], localSum[countValue], i, comSize, comRank; MPI_Init(&argc, &argv);
MPI_Comm_size(MPI_COMM_WORLD, &comSize);
MPI_Comm_rank(MPI_COMM_WORLD, &comRank); if (comRank == )
for (i = ; i < globalSize; globalData[i] = i, i++); MPI_Scatter(globalData, localSize, MPI_INT, localData, localSize, MPI_INT, , MPI_COMM_WORLD); for (i = ; i < localSize; count[i++] = ); for (i = ; i < localSize; i++)
printf("%3d, ", localData[i]); MPI_Reduce_scatter(localData, localSum, count, MPI_INT, MPI_SUM, MPI_COMM_WORLD); for (i = ; i < countValue; i++)
printf("%3d, ", localSum[i]); MPI_Finalize();
return ;
}

● 输出结果,这里取定 localSize 为 8,输出结果的前 8 个元素为分发到各进程中参与规约计算的原始数据,后面元素为规约计算结果。程序将各进程保存向量的每一个元素分别进行前缀和,但同一进程中各元素之间不相互影响,通过修改 countValue(即参数 count 各元素的值),可以将规约计算的结果分发到各进程中

■ countValue == 1(count == { 1, 1, 1, 1, 1, 1, 1, 1 })情况,每个进程分得一个结果(注意与上面的函数 MPI_Scan() 作对比)

■ countValue == 2(count == { 2, 2, 2, 2, 2, 2, 2, 2 })情况,前 4 个进程每个进程分得 2 个结果,后 4 的进程访问越界,得到无意义的值

■ count == { 2, 0, 2, 0, 2, 0, 2, 0 } 情况,偶数号进程每个进程分得 2 个结果,奇数号进程分得 0 个结果,表现为无意义的值

■ 思考,这列每个 localData 长度为 8,所以规约计算的结果为一个长度为 8 的向量,可以在不同进程中进行分发(注意数据尺寸大小 localSize 与运行程序的进程数 nProcess 没有任何关系,只是在范例中恰好相等),而函数 MPI_Scan() 则相当于在此基础上保留了所有中间结果(部分前缀结果),所以其输出为一个长为 localSize,宽度为 nProcess 的矩阵,并且自动按照进程号均分。

D:\Code\MPI\MPIProjectTemp\x64\Debug>mpiexec -n  -l MPIProjectTemp.exe // countValue = 1
[] , , , , , , , , ,
[] , , , , , , , , ,
[] , , , , , , , , ,
[] , , , , , , , , ,
[] , , , , , , , , ,
[] , , , , , , , , ,
[] , , , , , , , , ,
[] , , , , , , , , , D:\Code\MPI\MPIProjectTemp\x64\Debug>mpiexec -n -l MPIProjectTemp.exe // countValue = 2
[] , , , , , , , , , ,
[] , , , , , , , , , ,
[] , , , , , , , , , ,
[] , , , , , , , , , ,
[] , , , , , , , , , ,
[] , , , , , , , , , ,
[] , , , , , , , , , ,
[] , , , , , , , , , , D:\Code\MPI\MPIProjectTemp\x64\Debug>mpiexec -n -l MPIProjectTemp.exe // countValue = 2,count[i] = (i + 1) % 2 * 2
[] , , , , , , , , , ,
[] , , , , , , , , , ,
[] , , , , , , , , -, -,
[] , , , , , , , , -, -,
[] , , , , , , , , -, -,
[] , , , , , , , , , ,
[] , , , , , , , , -, -,
[] , , , , , , , , , ,

MPI 集合通信函数 MPI_Reduce(),MPI_Allreduce(),MPI_Bcast(),MPI_Scatter(),MPI_Gather(),MPI_Allgather(),MPI_Scan(),MPI_Reduce_Scatter()的更多相关文章

  1. MPI 集合通信函数 MPI_Scatterv(),MPI_Gatherv(),MPI_Allgatherv(),MPI_Alltoall(),MPI_Alltoallv(),MPI_Alltoallw()

    ▶ 函数 MPI_Scatterv() 和 MPI_Gatherv() .注意到函数 MPI_Scatter() 和 MPI_Gather() 只能向每个进程发送或接受相同个数的元素,如果希望各进程获 ...

  2. MPI 并行奇偶交换排序 + 集合通信函数 Sendrecv() Sendvecv_replace()

    ▶ <并行程序设计导论>第三章的例子程序 ● 代码 #include <stdio.h> #include <mpi.h> #include <stdlib. ...

  3. oracle之集合操作函数---minus、union、intersect

    集合操作符专门用于合并多条select语句的结果,包括:UNION,UNION ALL,INTERSECT,MINUS.当使用集合操作函数时,需保证数据集的字段数据类型和数目一致. 使用集合操作符需要 ...

  4. (Python)集合、集合的函数

    本节我们将学习python的另一种数据类型:集合(set) 1.集合(set) 集合在Python中是一种没有重复元素,且无序的数据类型,且不能通过索引来引用集合中的元素 >>> b ...

  5. 文成小盆友python-num3 集合,函数,-- 部分内置函数

    本接主要内容: set -- 集合数据类型 函数 自定义函数 部分内置函数 一.set 集合数据类型 set集合,是一个无序且不重复的元素集合 集合基本特性 无序 不重复 创建集合 #!/bin/en ...

  6. Oracle集合操作函数:union、intersect、minus

    [转]Oracle集合操作函数:union.intersect.minus 集合操作符专门用于合并多条select 语句的结果,包括:UNION, UNION ALL, INTERSECT, MINU ...

  7. redis 有序集合(zset)函数

    redis 有序集合(zset)函数 zAdd 命令/方法/函数 Adds the specified member with a given score to the sorted set stor ...

  8. mongo的runCommand与集合操作函数的关系

    除了特殊注释外,本文的测试结果均基于 spring-data-mongodb:1.10.6.RELEASE(spring-boot-starter:1.5.6.RELEASE),MongoDB 3.0 ...

  9. linux i2c 的通信函数i2c_transfer在什么情况下出现错误

    问题: linux i2c 的通信函数i2c_transfer在什么情况下出现错误描述: linux i2c设备驱动 本人在写i2c设备驱动的时候使用i2c transfer函数进行通信的时候无法进行 ...

随机推荐

  1. [Java Web学习]Spring MVC使用普通类对象,声明的对象为null

    由于对Spring还不熟悉,目前还处于学习阶段,因此经常会遇到一些小白问题,这个问题需要在Spring文件中将普通对象注入bean,然后在MVC中添加set方法,填充普通对象.

  2. [Java Web学习]Tomcat启动时报war exploded: Error during artifact deployment

    报错:Artifact FirstWeb:war exploded: Error during artifact deployment. See server log for details. SEV ...

  3. liunx问题集

    在CentOS中默认安装有MariaDB,这个是MySQL的分支,但为了需要,还是要在系统中安装MySQL,而且安装完成之后可以直接覆盖掉MariaDB 1.wget -i -c http://dev ...

  4. asd短片数篇

    黄乙己 黄乙己是站着AK而正常的唯一的人.他身材挺高大:蜡黄脸色,眼角间时常夹着些饼干屑:一副黑色的眼镜.虽然挺正常,可是他有良好的饮食习惯,似乎十多个月都是吃的牛奶泡饭,也没有洗饭盒.他对人说话,总 ...

  5. robotframework之上传功能

    上传功能,分为上传图片以及上传文件 1.上传文件 A)上传文件的html标签为input类型,可以直接输入文本中input文件路径,可以省略点击[上传文件]这一步骤 B)直接输入使用的关键词为:cho ...

  6. 【scrapy】笔记一:安装,以及遇到的坑

    一.前提 环境:python 3.7 操作系统: windows ;mac 二.安装步骤 mac : pip3 install scarpy //因为MAC自带python2.7所有我们用pip3指定 ...

  7. 引擎设计跟踪(九.14.3) deferred shading 准备

    目前做的一些准备工作 1.depth prepass for forward shading. 做depth prepass的原因是为了完善渲染流程, 虽然架构上支持多个pass, 但实际上从来没有测 ...

  8. VS资源收藏<持续更新中>

    1.VS插件下载地址:https://marketplace.visualstudio.com/vs

  9. debian-pve-ceph

    从头开始安装debian9.8 debian-9.8.0-amd64-netinst.iso vi /etc/vim/vimrc.tinyset nocompatibleset backspace=2 ...

  10. 一键安装Davinci

    官网:https://edp963.github.io/davinci/index.html 下载地址:https://github.com/edp963/davinci   环境:Centos7   ...