摘要:
学习资料 《高性能计算之并行编程技术 -- MPI并行程序设计》 原理 打包(Pack)和解包(Unpack)操作是为了发送不连续的数据, 在发送前显示地把数据包装大一个连续的缓冲区, 在接收之后从连续的缓冲区中解包。 函数 MPI_PACK MPI_PACK把由inbuf,incount, datatype指定的发送缓冲区中的incount个datat...
阅读全文
posted @ 2012-11-10 20:41
applesun0757
阅读(3505)
推荐(0)
摘要:
学习资料 《高性能计算之并行编程技术 -- MPI并行程序设计》(都志辉 等) 学习笔记
阅读全文
posted @ 2012-11-06 20:22
applesun0757
阅读(212)
推荐(0)
摘要:
学习资料 《高性能计算之 并行编程技术 -- MPI并行程序设计》 (都志辉 等) 学习笔记
阅读全文
posted @ 2012-11-06 20:21
applesun0757
阅读(179)
推荐(0)
摘要:
学习资料 《高性能计算之并行编程技术 -- MPI 并行程序设计》 (都志辉 等) 学习笔记
阅读全文
posted @ 2012-11-06 20:19
applesun0757
阅读(383)
推荐(0)
摘要:
学习资料 《并行算法实践》 (陈国良 等) 学习笔记 虚拟进程拓扑概念 在许多应用程序中,进程的线性排列不能充分地反映进程间在逻辑上的通信模型(通常由问题几何和所用的算法决定),进程经常排列成二维或三维网格形式的拓扑模型,而且,通常用一个图来描述逻辑进程排列, 这种逻辑进程排列称为“虚拟拓扑”。拓扑是组内通信域上的额外、可选的属性,它不能附加在组间通信域上(int...
阅读全文
posted @ 2012-11-06 20:17
applesun0757
阅读(1232)
推荐(0)
摘要:
学习资料 《并行算法实践》(陈国良 等) 学习笔记 群集通信(Collective Communications)是一个进程组中的所有进程都参加的全局通信操作。 群集通信涉及的进程组以及通信上下文, 都是由群集通信函数的通信域参数决定。 群集通信一般实现三个功能:通信、聚集和同步。 通信功能主要完成组内数据的传输; 聚集功能稍微要显得负责一点, 要在通信...
阅读全文
posted @ 2012-11-05 21:44
applesun0757
阅读(555)
推荐(0)
摘要:
Copy from: http://www.cnblogs.com/azraelly/archive/2012/07/07/2580839.html GNU CC(简称为Gcc)是GNU项目中符合ANSI C标准的编译系统,能够编译用C、C++和Object C等语言编写的程序。Gcc不仅功能强大,而且可以编译如C、C++、Object C、Java、Fortran、Pascal、Modula-...
阅读全文
posted @ 2012-10-29 23:56
applesun0757
阅读(299)
推荐(0)
posted @ 2012-10-29 23:53
applesun0757
阅读(303)
推荐(0)
摘要:
学习资料 《并行算法实践》(陈国良等)4.3.3 通信域 学习笔记 通信域(Communicator)包括进程组(Process Group) 和 通信上下文(Communication Context)等内容,用于描述通信进程间的通信关系。 通信域分为组内通信域和组间通信域,分别用来实现MPI的组内通信(Intra-communication) 和 组间通信(Inter...
阅读全文
posted @ 2012-10-29 21:32
applesun0757
阅读(1819)
推荐(0)
摘要:
学习资料 《并行算法实践》(陈国良等)4.3.1 消息数据类型 学习笔记 NOTE:文章只是对预定义数据类型 和派生数据类型 进行了概括的描述,具体内容没有展开描述,还需要查看相关书籍。 每个MPI消息都有相应的数据类型,MPI通过引入消息数据类型来解决消息传递过程中的异构性问题以及数据不连续问题。MPI的消息数据类型可以分为两种: 预定义数据类型 和 派...
阅读全文
posted @ 2012-10-29 20:27
applesun0757
阅读(1847)
推荐(0)