MPI

mac2024-11-19  35

MPI

collective Communication Routines

标题与point to point 主要区别: 引发group一面 不是所有的process 而是我们call的那个comm的group里面的所有的 MPI_task 同时执行 大家一起call work

API

1.MPI_Barrier(comm)

当指定commz中的每一个program执行到该处,准备就绪时,才同时进行后续操作,说明collective comm 其实是一种同步执行方式,并且对所有program阻塞至同步

2.MPI_Bcast(&buffer,count,datatype,root,comm)

将指定root(task id)中的指定内容(buffer)复制到其他每一个task

3.MPI_Scatter(&sendbuf,sendcnt,sendtype, &recvbuf,recvcnt,recvtype,root,comm)

sendcnt与recvcnt的值通常是相同的(分配出去的大小),sender一次分一个recver大小的内容给resver,直至分完为止(多出来的也不再进行分配),后续task得不到消息,为空

4.MPI_Gather(&sendbuf,sendcnt,sendtype,&recvbuf,recvcnt,recvtype,root,comm)

与MPI_Scatter恰好相反,将个task的内容收集到一个task中,所以此时需要recv有足够的空间,常用于平行计算结束后,将资料收集起来 ,由一个task将其写入file.

5.MPI_Reduce(&sendbuf,&recvbuf,count,datatype,op,dest,comm)

与Gather很像,将其他task的内容聚集起来,但是同时进行了相应操作,op的取值对应不同的操作,(dest:代表resv的taskid)

6.MPI_Allgather(&sendbuf,sendcount,sendtype,&recvbuf,recvcount,rectype,comm)

类似于gather,只不过是该comm下所有task均进行gather

7.MPI_Allreduce(&sendbuf,&recvbuf,count,datatype,op,comm)

同上 还存在很多API,虽然collective Comm 是同步,并且以上操作针对每一个task而言相同,但是通过不同的API和参数,可以实现分配任务的具体化和数量化,可以不同

Group and Communicator Management Routines

1.创建新的group

实际代码: 问题: 1.(rank < numtasks/2) ,将原task进行分组时,必须使每一个task都能call到MPI_Group_incl(),但是,我们使用intrank1[4] = {0,1,2,3}, rank2[4] = {5,6,7,8}两个数组来区分task进行实际匹配,所以task=4这个不会分到这两个组中。 2.执行结束后,0123实现同步化,5678实现同步化 但是两个新组均使用new_group和new_comm命名 在后续操作中如何区分这两者新组,如何分别管理呢? 不用担心,虽然变量名相同,但是内存地址等均不相同,可以区分

MPI_IO

colllective:并行读取,效能高,但是这里就多了一种中间读取的过程,当文件很大,且只有少数task需要读取时,使用independent I/O,更方便,更有效

最新回复(0)