/*====================*
* mpi_hello.c – Demo program of MPICH. *
*====================*/
#include
#include “mpi.h”
int main(int argc, char **argv)
{
int myrank, nprocs, namelen;
char processor_name[MPI_MAX
_PROCESSOR_NAME];
MPI_Init(&argc, &argv);
MPI_Comm_size(MPI_COMM_
WORLD, &nprocs);
MPI_Comm_rank(MPI_COMM
_WORLD, &myrank);
MPI_Get_processor_name(processor_name, &namelen);
printf(“Hello World! I’m rank %d of %d on %s\n”, myrank,
nprocs, processor_name);
MPI_Finalize();
return 0;
}
为了保证编译的正确性,程序的首部必须包含MPI的头文件mpi.h。该文件给出了MPI所有调用接口的说明,并对所有用到的常量进行了定义。MPI_MAX_PROCESSOR_NAME就是该文件中定义的一个常量,是某一MPI具体实现(此处即为MPICH)中允许的主机名的最大长度。
在调用任何MPI函数之前,必须先调用MPI_Init()进行相应的初始化工作。当所有MPI函数调用都完成之后,还必须调用MPI_Finalize()进行相应的清理工作。命令行参数通过MPI_Init()函数传递给MPI,以便为各个并行执行的程序建立起正确的运行环境。
接下去的几个MPI函数用来获得并行计算环境的一些基本信息。上面的示例程序只是简单地输出了这些信息,但通常情况下这些信息将被用来进行问题的自动分解,或者用于建立各并行机间的通信。MPI_Comm_size()函数可以得到参与并行计算的进程个数;MPI_Comm_rank()函数可以得到当前正在运行的进程的标识;而MPI_Get_processor_name()函数则能够获得当前进程所在主机的名称。
基于MPI的并行程序可能有很多种编译方法,大多数MPI实现都提供了一个易于使用的脚本来完成编译,这些脚本能够为编译器设置合适的参数,帮助编译器找到MPI头文件所在的目录,并能够连接上所需的库文件,从而保证编译过程的正确性。MPICH和LAM都提供了一个名为mpicc的脚本来完成并行程序的编译。例如,要编译上述的示例程序,只需执行下面的命令即可:
mpicc -o mpi_hello mpi_hello.c
在并行环境中的多台计算机上同时执行该程序,要将编译好的程序复制到不同的机器上,并且可执行程序必须放
mpirun -np 6 mpi_hello
在MPICH中,mpirun是MPI程序的启动脚本,它简化了并行进程的启动过程,尽可能屏蔽了底层的实现细节,从而为用户提供了一个通用的MPI并行机。在用mpirun命令执行并行程序时,参数-np指明了需要并行运行的进程个数。mpirun首先在本地结点上启动一个进程,然后根据/usr/local/share/machines.LINUX文件中所列出的主机,为每个主机启动一个进程。若进程数比可用的并行节点数多,则多余的进程将重新按照上述规则进行 Hello World! I′m rank 0 of 6 on node1
Hello World! I′m rank 1 of 6 on node2
Hello World! I′m rank 5 of 6 on node3
Hello World! I′m rank 3 of 6 on node1
Hello World! I′m rank 2 of 6 on node2
Hello World! I′m rank 4 of 6 on node3
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/163090.html