众所周知,选购HPC系统产品,绝不可能像购买一台PC,或是一台普通的服务器那样轻松,鉴于HPC系统高昂的投资,HPC用户在选购其硬件平台时,通常都会先对待选产品进行认真且详细的测试与评估,并以此为基础做出决策。对此,我们建议用户在这一环节中要尽量确定适于目标应用,也就是自己真实应用软件的测试指标和方法,在评估中则要从CPU、内存带宽及其最佳配置、内存和QPI的参数配合选择、存储子系统及节点间互联等对HPC系统性能至关重要的几个方面来考虑,以下就是我们与之相关的六顶主要建议,谨供大家参考:
1. HPC选型测试不要只看Linpack值
在确定HPC待购产品的测试指标和方法时,用户一定要切记不要太看重Linpack值。虽然HPC的全球TOP500排行榜和中国TOP100排行榜都是以它为标准对HPC系统进行排名,但这并不意味着它可作为具体用户评估和测试HPC系统的惟一标准。由于Linpack只是一个出好的压力测试软件,可通过简单的求解线性方程组,能够给出足够的压力,来测试高性能计算机系统的浮点性能和扩展性,还可用来对机器进行“体检”——烤机、查错,并在测试和优化Linpack过程中也会发现一些系统Bug。但它却无法反映出HPC系统的实际应用性能。
例如,3.2GHz的至强5482和新一代的2.93GHz至强5570,由于后者的时钟频率略低,因此在Linpack测试中并不占优,但对于石油油藏模拟、气象等对内存较敏感的应用来说,由于至强5570采用了QPI和集成内存控制器,能提供更大的内存容量和内存带宽,总体应用性能却有2-3倍的提升,而这是Linapck测试所无法体现的,因此用户如只凭Linpack来选型,就难免会误入歧途。
从更加科学的角度来说,用户在对HPC系统进行选型测试时,应使用贴近自身实际应用特征的工具和方法,从内存带宽占用、内存使用量、CPU利用率、存储I/O、网络带宽等多个指标进行应用特征分析。
2. 从应用出发实现系统最优化均衡配置
目前的HPC应用,一般最倚重的指标有三,即CPU浮点计算能力、内存带宽及容量和I/O的带宽,一般来说,它们都会在兼顾三者的同时偏重其中某一项,例如石油行业HPC系统上运行的地震资料处理软件是浮点计算密集型应用,而油藏模拟类应用软件则对内存带宽要求较高,因此如能选到一个在这三方面均有出色表现的平台,那就是最为理想的结果了。
在选择了一个均衡平台的基础上,用户还要在采购HPC系统前再对自己的主要应用软件的特性进行一些分析,看看自己的应用对硬件平台那一项性能或能力最为偏重,最好是确定一个适合于自己应用的测试指标,借试用厂商新服务器产品的机会测试一下,以求的配置上进行精准的调整,达到最合理或优化的效果。
比如,我们将HPC选型按应用分成四个类型:一类是只跑一种应用,如气象领域的HPC系统,这时最关键的就是要对应用进行专门调优,选择最匹配的机器;第二种是运行某一类型的应用,英特尔就曾对12种生命科学软件的应用特征进行了分析,找出其共同的特点和性能瓶颈,然后给出了对应的系统配置,以帮助OEM厂商和用户在进行系统设计和选型时有更加科学的参考;第三种则是运行几类不同的应用,如由多个院系共享的校级计算中心,这时同样需要对多种应用软件的应用特征进行分析,找到尽可能适合这几种应用的系统配置;第四种是完全对外提供服务的公共计算中心,要求什么应用都可以运行,这需要进行综合的性能测试,以找到一个平衡的通用系统。
3. 尽量实现单节点性能最大化
具体到HPC系统应该选择什么样的CPU方面,我们建议用户可根据所要达到的峰值计算能力选择相应档次的CPU,通常主流HPC应用在至强5500系列里可选5520、5550和5570等几个型号,但需要注意的是CPU在运行实际应用时,其能否发挥峰值计算能力还要考虑内存带宽的限制。
在此基础上,我们还是建议大家要尽量实现单节点性能最大化,这意味着我们应该根据需求,尽量选择较为高端的至强5500处理器,表面上这确实是会增加一些硬件采购成本,但是它们可以让单个节点的计算性能更强,从而可以减少节点的总数量,大大节省在节点间互联、软件授权、系统运维上的成本,还能够让系统的计算效率更高。英特尔将于明年推出的Nehalem-EX多路处理器就将让四路、八路以上的“胖节点”构建起来更加容易,用户届时可以根据应用来实现“胖节点”、“瘦节点”的混合搭配。
要实现单节点性能的最大化,在选择内存系统时,同时需要注意这样一些指标和关系:如内存和QPI之间的配合,每通道的内存插座数量。比如,1333MHz的内存,需要QPI带宽达到6.4T/s为最佳配置,而1066MHz则可和5.87T/s的QPI配置配合;每个内存通道的DIMM越少越好,已避免资源竞争和峰值内存带宽限制。
4. 互联选择,要在端口数量和价格之间平衡
千兆以太网、Infiniband都是目前HPC系统内部主要的互联网络标准。随着Infiniband的普及,主流HPC集群的节点间互联基本都采用DDR 2x 或QDR 4x 的Infiniband交换机和接口。由于Infiniband交换机的配置和价格随支持端口数的增加有较大变化,所以用户可以通过设计合理的网络拓扑来减少投资,同时可通过采用较高主频的CPU来增加单节点性能,减少集群总节点数量。
5. 考虑用固态硬盘突破存储I/O瓶颈
从全球和部分国内HPC用户的反馈来看,无论是对HPC领域还是一般数据中心用户来说,使用SSD(固态硬盘)和SSD阵列的服务器设计来突破存储I/O瓶颈都已成为一种趋势。在这方面,较为流行的做法是可以使用SSD作为本地快速、临时的存储池,加速对本地盘的临时快速读写。
6. 待选系统是否能够满足限定的供电和散热条件
虽然HPC用户和潜在的用户对于系统的总功耗还不是特别敏感,但其技术人员还是要保证待选产品的功耗和散热能够满足既有条件的限制,尤其是那些升级HPC系统时可能要延用原有机房的用户。而对于那些新建HPC系统,同时也将为该系统新建其周边基础设施的用户来说,他们就应该在设定系统性能目标的同时也确定其功耗和散热的目标值,并以此为基准设计和配置其机房、供电和散热设备。当然,这个目标值是必须要兼顾到未来系统升级的需求,拥有一定弹性的。
特别声明:本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者在两周内速来电或来函联系。