并行归并排序——MPI
并行归并排序在程序开始时,会将n/comm_comm个键值分配给每个进程,程序结束时,所有的键值会按顺序存储在进程0中。为了做到这点,它使用了树形结构通信模式。当进程接收到另一个进程的键值时,它将该键值合并进自己排序的键值列表中。编写一个程序实现归并排序。进程0应该读入n的值,将其广播给其余进程。每个进程需要使用随机数生成器来创建n/comm_sz的局部int型数据列表。每个进程先排序各自的局部列表,然后进程0收集并打印这些局部列表。然后,这些进程使用树形结构通信合并全局列表给进程0,并打印最终结果。

如图,一般情况下,应由进程读入数据,然后一层一层的传到每个进程,每个进程排序完成之后,由上一层的进程进行合并。我这次做的只是输入数n,由每个进程产生n/comm_sz个随机数。
这里有一个问题,如何确定一个进程的父节点和子节点?
你最初可能认为让在处理树中的每个节点是一个单独的进程中。这样,你可以简单地从二叉堆借用一个想法任何父节点的左子节点的下标2* K+1,右子节点的下标是2* K+2,一个节点的父节点是(K-1 )/ 2,这在一个完全二叉树中确定了父子关系。因此,一个内部节点将数据分成两半,并发送给每个子进程进行处理。这样叶节点,只是做了排序,内部节点等待然后从两个子节点接收回数据,执行两半的合并,以及(对于所有内部节点但非根节点本身)将结果发送到父节点。

#include <stdio.h> void communicate ( int myHeight, int myRank )
{ int parent = myRank & ~(<<myHeight); if ( myHeight > )
{ int nxt = myHeight - ;
int rtChild = myRank | ( << nxt ); printf ("%d sending data to %d\n", myRank, rtChild);
communicate ( nxt, myRank );
communicate ( nxt, rtChild );
printf ("%d getting data from %d\n", myRank, rtChild);
}
if ( parent != myRank )
printf ("%d transmitting to %d\n", myRank, parent);
} int main ( void )
{ int myHeight = , myRank = ; printf ("Building a height %d tree\n", myHeight);
communicate(myHeight, myRank);
return ;
}
下面是输出结果
Building a height 3 tree
0 sending data to 4
0 sending data to 2
0 sending data to 1
1 transmitting to 0
0 getting data from 1
2 sending data to 3
3 transmitting to 2
2 getting data from 3
2 transmitting to 0
0 getting data from 2
4 sending data to 6
4 sending data to 5
5 transmitting to 4
4 getting data from 5
6 sending data to 7
7 transmitting to 6
6 getting data from 7
6 transmitting to 4
4 getting data from 6
4 transmitting to 0
0 getting data from 4
了解了通信结构之后,下面是mpi_merge_sort.c文件,利用MPI写的归并排序,
#include<stdlib.h>
#include<stdio.h>
#include<time.h>
#include<math.h>
#include<string.h>
#include<mpi.h>
//读取输入的要排序的数的个数,并计算每个进程需要排序的个数
void read_n(int* n,int my_rank,MPI_Comm comm,int comm_sz,int* size);
//根据节点在通信树中的最高度为数组分配空间
void allocate_arrays(int** left,int** right,int** merge,int size,int height,int* myHeight,int my_rank);
//在left数组中生成size个随机数
void randnum(int* left,int size,int my_rank);
//以下三个函数时用于在通信树的叶节点对生成在left中的size个随机数进行快速排序
void swap(int *a,int *b);
int partition(int left[],int lo,int hi);
void QuickSort(int left[], int lo, int hi);
//父节点将接收子节点的数据与自己节点的数据进行归并
void merge_sort(int* left,int* right,int* merge,int size);
//控制通信,确定从哪个子节点中接收数据或向哪个父节点发送数据
void communicate ( int Height, int my_rank,int size,int* right,int* left,int* merge,MPI_Comm comm); int main(int argc,char* argv[]){
int n,comm_sz,my_rank;
int* left;
int* right;
int* merge;
int size;
int myHeight=;
MPI_Comm comm;
int height=; MPI_Init(NULL,NULL);
comm=MPI_COMM_WORLD;
MPI_Comm_size(comm,&comm_sz);
MPI_Comm_rank(comm,&my_rank);
read_n(&n,my_rank,comm,comm_sz,&size);
int tt=comm_sz;
for(int i=;i<comm_sz;i++){
tt=tt/;
if(tt==)
break;
height++;
}
allocate_arrays(&left,&right,&merge,size,height,&myHeight,my_rank);
randnum(left,size,my_rank);
QuickSort(left,,size-); communicate(height,my_rank,size,right,left,merge,comm);
if(my_rank==){
if(height%!=)
for(int i=;i<n;i++)
printf("%d ",merge[i]);
else
for(int i=;i<n;i++)
printf("%d ",left[i]);
printf("\n");
}
MPI_Finalize();
free(left);
free(right);
free(merge); }
void read_n(int* n,int my_rank,MPI_Comm comm,int comm_sz,int* size){
if(my_rank==){
printf("please intput the number of number\n");
scanf("%d",n);
}
MPI_Bcast (n,,MPI_INT,,comm);
*size=*n/comm_sz;
}
void allocate_arrays(int** left,int** right,int** merge,int size,int height,int* myHeight,int my_rank){
for(int i=;i<height;i++){
int parent=my_rank&~(<<i);
if(parent!=my_rank)
break;
(*myHeight)++;
}
*left=malloc((<<(*myHeight))*size*sizeof(int)); *right=malloc((<<(*myHeight-))*size*sizeof(int));
*merge=malloc((<<(*myHeight))*size*sizeof(int)); }
void randnum(int* left,int size,int my_rank){
srand(my_rank);
for(int i=;i<size;i++)
left[i]=rand();
}
void swap(int *a,int *b)
{
int temp=*a;
*a=*b;
*b=temp;
}
int partition(int* left,int lo,int hi)
{
int key=left[hi];
int i=lo-;
for(int j=lo;j<hi;j++)
{
if(left[j]<=key)
{
i=i+;
swap(&left[i],&left[j]);
}
}
swap(&left[i+],&left[hi]);
return i+;
}
void QuickSort(int *left, int lo, int hi)
{
if (lo<hi)
{
int k = partition(left, lo, hi);
QuickSort(left, lo, k-);
QuickSort(left, k+, hi);
}
}
void merge_sort(int* left,int* right,int* merge,int size){ int lp=,rp=,mp=;
for(int i=;i<*size;i++){
if(left[lp]<=right[rp]){
merge[mp]=left[lp];
lp++;
mp++;
}else{
merge[mp]=right[rp];
rp++;
mp++;
}
if(lp==size||rp==size)
break;
}
if(lp==size){
memcpy(&merge[mp],&right[rp],(size-rp)*sizeof(int));
}else{
memcpy(&merge[mp],&left[lp],(size-lp)*sizeof(int));
}
}
void communicate ( int Height, int my_rank,int size,int* right,int* left,int* merge,MPI_Comm comm)
{
for(int i=;i<=Height;i++){
int parent=my_rank&~(<<i);
if(parent==my_rank){
int rtChild=my_rank|(<<i); MPI_Recv(right,size,MPI_INT,rtChild,,comm,MPI_STATUS_IGNORE); merge_sort(left,right,merge,size); int* temp;
temp=left;
left=merge;
merge=temp;
size*=; }else{
MPI_Send(left,size,MPI_INT,parent,,comm);
break; }
} }
使用 mpicc -g -Wall -std=c99 -o mpi_merge_sort mpi_merge_sort.c 进行编译
使用 mpirun -n ./mpi_merge_sort
注意输入的进程个数一定是2的整数次幂,且输入的要排序数的个数要能整除进程个数
下面是一次的运行结果:
please intput the number of number
12
190686788 483147985 844158168 846930886 846930886 1205554746 1505335290 1681692777 1681692777 1738766719 1804289383 1804289383
参考资料:http://penguin.ewu.edu/~trolfe/ParallelMerge/ParallelMerge.html
并行归并排序——MPI的更多相关文章
- 疯狂的Java算法——插入排序,归并排序以及并行归并排序
从古至今的难题 在IT届有一道百算不厌其烦的题,俗称排序.不管是你参加BAT等高端笔试,亦或是藏匿于街头小巷的草根笔试,都会经常见到这样一道百年难得一解的问题. 今天LZ有幸与各位分享一下算法届的草根 ...
- 典型分布式系统分析:Bigtable
本文是典型分布式系统分析的第三篇,分析的是Bigtable,一个结构化的分布式存储系统. Bigtable作为一个分布式存储系统,和其他分布式系统一样,需要保证可扩展.高可用与高性能.与此同时,Big ...
- [Distributed ML] Yi WANG's talk
王益,分布式机器学习的践行者,他的足迹值得后来者学习. 膜拜策略: LinkedIn高级分析师王益:大数据时代的理想主义和现实主义(图灵访谈)[心路历程] 分布式机器学习的故事-王益[历史由来] 分布 ...
- C++程序中调用MPI并行的批处理命令
问题来源:在使用MPI时,将程序并行实现了,运行时需要在dos窗口下输入批处理命令,以完成程序的执行. 如:mpiexec -localroot -n 6 d:/mpi/pro.exe 但每次这样挺麻 ...
- 【MPI学习7】MPI并行程序设计模式:MPI的进程组和通信域
基于都志辉老师MPI编程书中的第15章内容. 通信域是MPI的重要概念:MPI的通信在通信域的控制和维护下进行 → 所有MPI通信任务都直接或间接用到通信域这一参数 → 对通信域的重组和划分可以方便实 ...
- 【MPI学习6】MPI并行程序设计模式:具有不连续数据发送的MPI程序设计
基于都志辉老师<MPI并行程序设计模式>第14章内容. 前面接触到的MPI发送的数据类型都是连续型的数据.非连续类型的数据,MPI也可以发送,但是需要预先处理,大概有两类方法: (1)用户 ...
- 【MPI学习4】MPI并行程序设计模式:非阻塞通信MPI程序设计
这一章讲了MPI非阻塞通信的原理和一些函数接口,最后再用非阻塞通信方式实现Jacobi迭代,记录学习中的一些知识. (1)阻塞通信与非阻塞通信 阻塞通信调用时,整个程序只能执行通信相关的内容,而无法执 ...
- 【MPI学习2】MPI并行程序设计模式:对等模式 & 主从模式
这里的内容主要是都志辉老师<高性能计算之并行编程技术——MPI并行程序设计> 书上有一些代码是FORTAN的,我在学习的过程中,将其都转换成C的代码,便于统一记录. 这章内容分为两个部分: ...
- 《并行程序设计导论》——MPI(Microsoft MPI)(1):Hello
=================================版权声明================================= 版权声明:原创文章 禁止转载 请通过右侧公告中的“联系邮 ...
随机推荐
- POJ 3281 Dining(网络流拆点)
[题目链接] http://poj.org/problem?id=3281 [题目大意] 给出一些食物,一些饮料,每头牛只喜欢一些种类的食物和饮料, 但是每头牛最多只能得到一种饮料和食物,问可以最多满 ...
- Apache+php+mysql的安装与配置 - 之三(Apache的虚拟主机配置)
Apache+php+mysql的安装与配置 - 之三(Apache的虚拟主机配置) Apache核心(Core)配置 VirtualHost 语法 <VirtualHost addr[:por ...
- iOS9 Storyboard unwind segue反回传递事件时机详细步骤
当返回上一个界面且需要上一个界面做某事时,用unwind segue实现起来比delegate简单许多,甚至有时不适合用delegate来实现,那么我们就用unwind segue吧,而且像1-> ...
- intel 硬盘加速技术
Intel Smart Response Technology 混合硬盘技术 Intel Rapid Storage Technology SERVER:
- Vue + Webpack + Vue-loader 系列教程
http://www.cnblogs.com/terry01/p/5953464.html 介绍 Vue-loader 是什么? vue-loader 是一个加载器,能把如下格式的 Vue 组件转化成 ...
- threadlocal彻底理解
如果你定义了一个单实例的java bean,它有若干属性,但是有一个属性不是线程安全的,比如说HashMap.并且碰巧你并不需要在不同的线程中共享这个属性,也就是说这个属性不存在跨线程的意义.那么你不 ...
- kubernetes API Server安全
用户访问API Server(以下简称Server),K8S的安全检查步骤:认证和授权. 认证解决用户是谁的问题,就是验证用户名密码;授权解决用户能做什么的问题,就是检查该用户是否拥有权限访问请求的资 ...
- Android 常驻与很驻型广播的差别,及ListView优化,Android新手基本知识巩固
1.常驻型广播 常驻型广播,当你的应用程序关闭了,假设有广播信息来,你写的广播接收器相同的能接受到. 他的注冊方式就是在你的应用程序中的AndroidManifast.xml进行注冊. 通常说这样 ...
- 转: WebView载入一个网页 但是退出对应的activity时, 声音、视频无法停止播放 解决方案(未验证)
1. webview.onPause 2. webview独立进程,杀进程3.小场景可以不用这么复杂有个技巧就是在activity退出的时候加载一个空白页面,就能解决
- 转:windows 查找pid并kill进程
找出占用1099端口的进程,进入windows命令,查看什么进程占用了1099端口 使用命令:netstat -aon|findstr 1099 找出占用1099端口的进程,如下图所示: