上一页 1 ··· 26 27 28 29 30 31 32 33 34 ··· 71 下一页
摘要: 1、VASP4.6 是量子化学计算的一个商业软件,这里是源码包。来自奥地利。这个软件也可用在物理系,做分子动力学等分析。 2、首先声明一点:VASP4.6无法在Intel Fortran Compiler 8系列上编译通过。会报一个fortcom的内部错误,这是编译器的bug。 3、VASP建议在Intel Fortran Compiler V7上编译,由于手上没有这个版本,所以,只好拿了一个最新的Intel Fortran Compiler 9.0来测试(装完编译器后记得source ifortvars.sh和写一个简单的f90程序来测试一下)。 4、首先tar开两个包,自然先装vasp.4 阅读全文
posted @ 2011-05-04 13:37 super119 阅读(1030) 评论(0) 推荐(0)
摘要: SilverStorm的Infiniband的设备支持两种通讯协议:一种是IB Native,在MPICH编译的时候,体现在configure的时候,指定device=vapi;一种是IP over IB的方式,这种在MPICH编译的时候,device就是以太网了,因为上面跑的就是IP和TCP这些东西。 所以,很显然的是,使用IB Native方式的通讯方式,Infiniband的性能才能得到发挥,否则无法发挥出来。也就是说,所有的并行应用,如果用IP over IB方式的MPICH,那么肯定都是可以跑的(不用MPICH的应用不谈,要具体问题具体分析),但性能肯定要打折扣;用IB native 阅读全文
posted @ 2011-05-04 13:36 super119 阅读(1756) 评论(0) 推荐(0)
摘要: 首先是编译器,这个不多说了,谁都知道。 更重要的是Intel的数学库,称为Math Kernel Library-MKL 还有,Intel有一套Cluster Tools,里面包含了Cluster MKL、ITC、ITA、Intel MPI等。 我们都知道,高性能计算大多用于工程计算,目前的工程计算主要需要这样几个东西:FFT(快速傅立叶变换)、LAPACK(线性代数Package)、BLAS(基础线性代数函数库)、SCAPACK(高扩展的LAPACK,主要用于分布式内存体系结构,也就是Cluster结构的并行化的LAPACK)。这些东西都有免费的开源实现,如FFTW(MIT做的FFT)、LA 阅读全文
posted @ 2011-05-04 13:35 super119 阅读(2566) 评论(0) 推荐(0)
摘要: 机器只有一台,有两个CPU,各为Dual Core的2.8G的Nocona 测试操作系统为RedHat Enterprise Linux AS3 Update 3,一定要用这个版本,试了其他版本,都有问题!x86_64的版本普遍有一个编译gromacs时链接libX11.so(-lX11)不兼容的问题,目前还不知道如何解决! 编译器就用了一个Intel Fortran Compiler 9 Build 021版本,因为只有Intel 9系列的编译器才能发挥dual core的威力。没用Intel的C Compiler,不知道用了之后会不会更好。 FFT还是用的FFTW2.1.3,因为不知道如何 阅读全文
posted @ 2011-05-04 13:33 super119 阅读(280) 评论(0) 推荐(0)
摘要: 这是32位程序在64位系统中运行经常碰到的问题,解决办法很简单,安装ia32-lib等包即可:sudo apt-get install ia32-libs ia32-libs-gtk 阅读全文
posted @ 2011-04-27 23:46 super119 阅读(514) 评论(0) 推荐(0)
摘要: 进入每个源码目录,例如pjlib、pjlib-util、pjsip、pjmedia等,运行命令:doxygen docs/doxygen.cfg这样就在docs目录下有一个html和latex的目录,就可以看到生成的文档了。省的去pjsip的网站上查文档了。 阅读全文
posted @ 2011-04-26 09:46 super119 阅读(380) 评论(0) 推荐(0)
摘要: 在Intel的LAB配置安腾集群的NIS,由于这个集群和Xeon的集群在一个网段内,连在一个交换机上,所以,可能是Xeon集群的NIS配置影响了安腾集群(尽管两个NIS DOMAIN不一样),安腾集群上某个节点死活找不到NIS Server。 这个可以通过配置/etc/yp.conf文件,手动指定domain server的hostname来解决,这样,ypbind不用去broadcast查找domain server,直接就连过去了。 阅读全文
posted @ 2011-04-23 10:52 super119 阅读(718) 评论(0) 推荐(0)
摘要: 如果我们的并行程序使用了MPI定义的I/O函数的话(在MPICH中是ROMIO这个库),那么,我们在配置NFS的时候是有一些特殊的地方的: 1、要求NFS的版本至少是3 2、要求nfslock这个service一定要打开 3、要求从节点在/etc/fstab文件中定义mount主节点的NFS的目录的时候,option一栏不能填defaults,至少要将 noac(no attribute cache)这个option配上(该配置不允许NFS缓存文件的属性,虽然noac会降低一些性能,但是它能保证在有多个NFS client读写文件的时候,都能正确读写数据)。 长见识啊!这里还有篇参考文档,这个 阅读全文
posted @ 2011-04-23 10:46 super119 阅读(1376) 评论(0) 推荐(0)
摘要: PVFS2 1.4.0说实在话,做的很不错,起码在安装配置这方面很简单-无需重新编译kernel,安装手册也写的很不错,安装很顺利,所以,不再赘述了,直接参考这篇Quick Start,很详细:很简单的将安装步骤说一下(我的集群四个节点,每个节点四个Core Xeon LV,主机名是compute1 --- compute4,compute1做管理节点,所以做pvfs 的matadata server,不做I/O Server,其他三个节点做I/O server) 然后就是做性能测试了,性能测试我做了两个,一个是将compute1上面的一个2.2G的文件拷贝到pvfs的目录下(/mnt/pvf 阅读全文
posted @ 2011-04-23 10:42 super119 阅读(763) 评论(0) 推荐(0)
摘要: 1、MPICH2 1.0.3中之所以出现了mpd这样的东西,MPICH的开发者声称这是将mpi程序的通讯和计算分开。在MPICH1中,我们直接用mpirun来执行 一个任务,此时,要先用rsh这些东西通讯,然后再启动进程,对出错调试、程序启动速度等都有影响。所以,在MPICH2中,将通讯这部分单独做出来,那 就是mpd了,而且用Python书写,简单易懂,从而解决上面的问题。 2、MPICH2推荐用mpiexec来执行任务而不是mpirun,因为的确,mpiexec相比mpirun,有了很多实用的feature,比如: mpiexec -n 1 -host loginnode master : 阅读全文
posted @ 2011-04-23 10:41 super119 阅读(1181) 评论(0) 推荐(0)
上一页 1 ··· 26 27 28 29 30 31 32 33 34 ··· 71 下一页