• 周三. 2月 28th, 2024

5G编程聚合网

5G时代下一个聚合的编程学习网

热门标签

MPI实现并行奇偶排序

admin

11月 28, 2021

奇偶排序

odd-even-sort, using MPI

使用 MPI 实现奇偶排序算法, 并且 MPI 进程 只能向其相邻进程发送消息

nprocs 是进程数。 每个进程拥有独立的一块数据 data[0 ~ block_len-1],组合起来为整个待排序的数组。

方法

每个阶段排序之后不进行check

此前,在每个阶段的奇偶排序进行完之后,都会进行一次进程之间的信息传递,以判断排序是否完成,这个过程要进行约(3*nprocs)次的send/recv。现在的优化是:总共只进行nprocs轮排序,不再进行check。这样的话,即使是目前在最小编号进程中的元素,而它值较大,本应排序到最大编号进程中,也可以在nprocs轮中排到正确的位置。

这样之后,大约有几十ms的优化。

进程之间互相传递数据,然后进行优化后的归并

在一个排序阶段中,相邻进程块互相发送自己的全部数据,之后在每个块内部将两个块的数据进行归并,但是只保留最小/最大的block_len个元素,将其拷贝到自己的data上。这样可以省掉一半的归并时间。

这样之后大约有100+ms的优化。

进程之间发送全部数据之前,先发送端点处的数据

进程之间发送全部数据之前,先发送端点处的数据,判断左边进程中的最大元素是否小于等于右边进程中的最小元素,如果是,那么无需进行后续数据的发送和归并。

这样之后大约有几十ms的优化。

代码

#include <algorithm>
#include <cassert>
#include <cstdio>
#include <cstdlib>
#include <mpi.h>
#include <cmath>

#include "worker.h"
using namespace std;


bool is_edge(int rank, bool odd_or_even, bool last_rank){
  if (odd_or_even == 0){
    return (rank & 1) == 0 && last_rank;
  }
  else{
    return rank == 0 || ((rank & 1) == 1 && last_rank);
  }
}

void merge_left(float *A, int nA, float *B, int nB, float *C){  //make sure C[nA-1] is available
  float *p1 = A, *A_end = A + nA, *p2 = B, *B_end = B + nB, *p = C, *C_end = C + nA;

  while( p != C_end && p1 != A_end && p2 != B_end)
    *(p++) = ((*p1) <= (*p2)) ? *(p1++) : *(p2++);
  while( p != C_end )
    *(p++) = *(p1++);
}
void merge_right(float *A, int nA, float *B, int nB, float *C){
  float *p1 = A + nA , *p2 = B + nB , *p = C + nB; 

  while( p != C && p1 != A && p2 != B )
    *(--p) = (*(p1-1) >= *(p2-1)) ? *(--p1) : *(--p2);
  while( p != C )
    *(--p) = *(--p2);
}

void Worker::sort() {
    //data[0, block_len)
    if (out_of_range) return ;
    std::sort(data, data + block_len); 
    //先把当前进程数据排好序
    if (nprocs == 1) return ;

    bool odd_or_even = 0; // = 0: even;  = 1: odd;
    float *cp_data = new float [block_len];
    float *adj_data = new float [ceiling(n, nprocs)];

    int limit = nprocs;
    while(limit--){
        if(is_edge(rank, odd_or_even, last_rank)){  
            //边界情况,没有与其他进程存在于同一个进程块内

        }
        else if((rank & 1) == odd_or_even){  //receive info
            size_t adj_block_len = std::min(block_len, n - (rank + 1) * block_len);
            MPI_Request request[2];


            MPI_Isend(data + block_len - 1, 1, MPI_FLOAT, rank + 1, 0, MPI_COMM_WORLD, &request[0]);
            MPI_Irecv(adj_data, 1, MPI_FLOAT, rank + 1, 1, MPI_COMM_WORLD, &request[1]);
            MPI_Wait(&request[0], MPI_STATUS_IGNORE);
            MPI_Wait(&request[1], MPI_STATUS_IGNORE); //发送端点数据

            if(data [block_len - 1] > adj_data[0]) {  
                //此时两块之间存在未排好序的数据,需要排序
                MPI_Sendrecv(data, block_len, MPI_FLOAT, rank + 1, 0, 
                             adj_data, adj_block_len, MPI_FLOAT, rank + 1, 1, MPI_COMM_WORLD, MPI_STATUS_IGNORE); 
                //互相交换数据

                // merge
                merge_left(data, (int)block_len, adj_data, (int)adj_block_len, cp_data);  
                //进行归并排序,取前block_len个数据返回到cp_data中

                memcpy(data, cp_data, block_len * sizeof(float)); //拷贝回data
            }
        }
        else if ((rank & 1) == !odd_or_even){  //send info
            size_t adj_block_len = ceiling(n, nprocs);
            MPI_Request request[2];

            MPI_Isend(data, 1, MPI_FLOAT, rank - 1, 1, MPI_COMM_WORLD, &request[1]);
            MPI_Irecv(adj_data + adj_block_len - 1, 1, MPI_FLOAT, rank 
                      - 1, 0, MPI_COMM_WORLD, &request[0]);
            MPI_Wait(&request[1], MPI_STATUS_IGNORE);
            MPI_Wait(&request[0], MPI_STATUS_IGNORE);
            //发送端点数据

            if (adj_data[adj_block_len - 1] > data[0]){
                //此时两块之间存在未排好序的数据,需要排序
                MPI_Sendrecv(data, block_len, MPI_FLOAT, rank - 1, 1, 
                             adj_data, adj_block_len, MPI_FLOAT, rank - 1, 0, MPI_COMM_WORLD, MPI_STATUS_IGNORE);
                //互相交换数据

                // merge
                merge_right(adj_data, (int)adj_block_len, data, (int)block_len, cp_data);
                //进行归并排序,取前block_len个数据返回到cp_data中

                memcpy(data, cp_data, block_len * sizeof(float)); //拷贝回data
            }

        } 
        odd_or_even ^= 1;
    }
    delete[] cp_data;
    delete[] adj_data;
}

实验数据

n N( imes) P 耗时(ms) 相对单进程的加速比
100000000 1$ imes$1 12728.326000 1
100000000 1$ imes$2 6754.229000 1.884
100000000 1$ imes$4 3559.514000 3.576
100000000 1$ imes$8 2007.818000 6.339
100000000 1$ imes$16 1340.771000 9.493
100000000 2$ imes$16 870.302000 14.625

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注