欢迎来到淘文阁 - 分享文档赚钱的网站! | 帮助中心 好文档才是您的得力助手!
淘文阁 - 分享文档赚钱的网站
全部分类
  • 研究报告>
  • 管理文献>
  • 标准材料>
  • 技术资料>
  • 教育专区>
  • 应用文书>
  • 生活休闲>
  • 考试试题>
  • pptx模板>
  • 工商注册>
  • 期刊短文>
  • 图片设计>
  • ImageVerifierCode 换一换

    MPI综合实验报告(共12页).docx

    • 资源ID:14052747       资源大小:631.04KB        全文页数:12页
    • 资源格式: DOCX        下载积分:20金币
    快捷下载 游客一键下载
    会员登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录   QQ登录  
    二维码
    微信扫一扫登录
    下载资源需要20金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    MPI综合实验报告(共12页).docx

    精选优质文档-倾情为你奉上MPI综合实验报告 目前三次MPI实验已经结束,结合之前所写的实验报告,对总体的实验内容做一个总结。参考资料:MPI简介多线程是一种便捷的模型,其中每个线程都可以访问其它线程的存储空间。因此,这种模型只能在共享存储系统之间移植。一般来讲,并行机不一定在各处理器之间共享存储,当面向非共享存储系统开发并行程序时,程序的各部分之间通过来回传递消息的方式通信。要使得消息传递方式可移植,就需要采用标准的消息传递库。这就促成的消息传递接口(Message Passing Interface, MPI)的面世,MPI是一种被广泛采用的消息传递标准1。与OpenMP并行程序不同,MPI是一种基于消息传递的并行编程技术。消息传递接口是一种编程接口标准,而不是一种具体的编程语言。简而言之,MPI标准定义了一组具有可移植性的编程接口。各个厂商或组织遵循这些标准实现自己的MPI软件包,典型的实现包括开放源代码的MPICH、LAM MPI以及不开放源代码的Intel MPI。由于MPI提供了统一的编程接口,程序员只需要设计好并行算法,使用相应的MPI库就可以实现基于消息传递的并行计算。MPI支持多种操作系统,包括大多数的类UNIX和Windows系统。三次实验总结第一次实验:实验要求:配置好MPI运行的基本环境,测试MPI的基本通信程序。程序:#include "stdafx.h"#include <mpi.h>void main( void ) MPI_Status status; char string="xxxxx" int myid; MPI_Init(NULL,NULL); MPI_Comm_rank(MPI_COMM_WORLD,&myid); if(myid=2) MPI_Send("HELLO",5,MPI_CHAR,7,1234,MPI_COMM_WORLD); if(myid=7) MPI_Recv(string,5,MPI_CHAR,2,MPI_ANY_TAG,MPI_COMM_WORLD,&status); printf("Got %s from P%d,tag %dn",string,status,status.MPI_SOURCE,status.MPI_TAG); MPI_Finalize();运行环境配置过程:(这个是在根据网上的环境配置教程做的)1、 安装软件MPICH2,本次操作安装在C:Program FilesMPICH2文件夹中。2、 打开安装好的MPICH2目录,打开bin文件夹中的wmpiregister.exe文件,进行注册。填入本机的用户名和密码。3、 建立一个控制台应用程序空文档,MY MPI,输入程序4、添加库和包含文件打开Tool->Options对话框选择项目和解决方案下的VC+目录一栏,如下图所示:分别添加包含文件C:Program FilesMPICH2include和库文件C:Program FilesMPICH2lib5、 取消预编译头打开Project->Property,设置框如下图所示展开C/C+项,选择与编译头,在创建/使用预编译头中选择 :不使用预编译头6、打开Project->Property,设置框如下图所示将配置属性中的常规项中的字符集设置成未设置展开连接器中输入项,在附件依赖项中添加mpi.lib7、 自定义多线程运行打开MPICH2安装目录显得mpiexec.exe装入运行产生的.exe文件并选择线程数,运行结果如下图所示第二次实验实验要求:MPI实验第二部分1. 了解计算粒度、问题规模(计算负载)、并行程度概念;2. 测试基于MPI的Pi并行计算程序;3. 完成实验报告(MPI程序代码、运行结果截屏、实验分析总结)在这次的实验过程中,我们的程序是通过数值方法计算 的值来观察运行时间。程序:#include "stdafx.h"#include <stdio.h>#include "mpi.h"static long num_steps = ; void main(int argc, char* argv) int i_start, i_end, i, myid, numprocs; double pi, mypi, x, step, sum = 0.0; double start, end; MPI_Init(&argc, &argv); MPI_Comm_size(MPI_COMM_WORLD, &numprocs); MPI_Comm_rank(MPI_COMM_WORLD, &myid); if(myid = 0) start = MPI_Wtime(); MPI_Bcast(&num_steps, 1, MPI_INT, 0, MPI_COMM_WORLD); i_start = myid * (num_steps / numprocs); i_end = i_start + (num_steps / numprocs); step = 1.0 / (double) num_steps; for( i = i_start; i < i_end; i+) x = (i + 0.5) * step; sum = sum + 4.0 / (1.0 + x * x); mypi = step * sum; MPI_Reduce(&mypi, &pi, 1, MPI_DOUBLE, MPI_SUM, 0, MPI_COMM_WORLD);if(myid = 0) printf("Pi = %fn", pi);end = MPI_Wtime();printf("Run time is : %.10fn", end - start);fflush(stdout);MPI_Finalize();实验原理:利用公式PI的近似值计算圆周率7,定积分的计算可以转化为求一个曲边梯形的面积问题。将积分区间等分成n个小的子区间,可将每个小的子区间上的曲边梯形近似地看成矩形,这些矩形面积的和就近似地等于原来曲边梯形的面积。这样最终将求圆周率的问题转化成了一个面积迭加的计算。 当进程数为2时,运算时间很小,要比进程数为1时时间要短,说明该情况下,多进程的运行效率要比单进程高。然后,我使用了几台计算机在同一局域网之下构成了集群计算机系统,采用非共享内存方式利用多进程完成任务。在两台机器构成的集群计算机系统之下,我分别测了多组进程之下并行计算的时间比较,运算结果如下所示:做表格比较之:进程数1481216运行时间0.0.0.0.0.结果分析:因为计算规模较小,集群计算机系统并行多进程计算并不能很明显的表现出计算优势。反而,经过验证,在较大规模计算量之下,集群计算机系统的计算速度优越性得到明显展现。第三次实验实验要求:1. 理解同步(synchronous)计算和同步路障(barrier)2. 测试基于MPI_Barrier()的并行程序3. 完成实验报告(MPI程序代码、运行结果截屏、实验分析总结)程序:#include "stdafx.h"#include <stdio.h>#include "mpi.h"int main(int argc, char* argv) int taskid, ntasks; int ierr;MPI_Init(&argc, &argv);MPI_Comm_rank(MPI_COMM_WORLD, &taskid);MPI_Comm_size(MPI_COMM_WORLD, &ntasks);if(taskid = 0) printf("nnnnnn"); ierr = MPI_Barrier(MPI_COMM_WORLD);if(taskid = 0) printf("Hel"); fflush(stdout);if(taskid = 1) printf("lo "); fflush(stdout);if(taskid = 2) printf("Wor"); fflush(stdout);if(taskid = 3) printf("ld!"); fflush(stdout);ierr = MPI_Barrier(MPI_COMM_WORLD);if(taskid = 0) printf(" (Unordered)n"); fflush(stdout);if(taskid = 0) printf("Hel"); fflush(stdout);ierr = MPI_Barrier(MPI_COMM_WORLD);if(taskid = 1) printf("lo "); fflush(stdout);ierr = MPI_Barrier(MPI_COMM_WORLD);if(taskid = 2) printf("Wor"); fflush(stdout);ierr = MPI_Barrier(MPI_COMM_WORLD);if(taskid = 3) printf("ld!"); fflush(stdout);ierr = MPI_Barrier(MPI_COMM_WORLD);if(taskid = 0) printf(" (Ordered)nnnnn"); MPI_Finalize();return 0;实验原理:同步计算和同步路障Barriers:Blocks until all processes in the communicator have reached this routine.A point at which all processes must wait until all other processes have reached that point.Synchronous & Barrier:In a fully synchronous application, all the processes synchronized at a regular points.实验结果截屏:结果分析:如果大于等于4个进程的话,输出的语句就是顺序的,正常的,但是如果进程数目小于4,由于同步路障的存在,只有当所有进程到来之时才会被同步,这样由于进程数小于要求进程数,所以同步会出现问题,所以输出的语句会出现乱码。MPI实验总结通过这次实验,我们对MPI有了一个初步了解。MPI是一种基于消息传递的并行编程技术,而不是一种具体的编程语言。MPI程序与OpenMP程序的最大不同就是MPI程序不仅可以适用多线程的方式并行运算还可以让程序以多进程的方式执行,以这种方式执行的程序并不共享内存,各个进程是通过消息传递来进行通信的。这样做的好处是完成某一计算任务的不同进程可以运行在不同处理器上(不只是处理器的不同核上),甚至是不同的结点计算机上,方便分布式计算系统的构建。在实验的过程中,请教了老师很多问题,不管多么简单抑或繁琐,老师都一一耐心加以解答,再次表示衷心感谢。专心-专注-专业

    注意事项

    本文(MPI综合实验报告(共12页).docx)为本站会员(飞****2)主动上传,淘文阁 - 分享文档赚钱的网站仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知淘文阁 - 分享文档赚钱的网站(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于淘文阁 - 版权申诉 - 用户使用规则 - 积分规则 - 联系我们

    本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

    工信部备案号:黑ICP备15003705号 © 2020-2023 www.taowenge.com 淘文阁 

    收起
    展开