今天,无论是政府和科研机构里的超级计算机,还是大型互联网公司的分布式服务器集群,抑或是服务亿万公众的云计算数据中心,对计算资源的需求越来越高,用到的服务器数量越来越多。然而,大规模计算系统的应用,却面临有限的机房空间、紧张的电力供应、严格的散热与节能环保要求、繁杂的管理维护工作以及有限的资金预算等多方面的限制。为此,从政府到工业界,从IT厂商到用户机构,大家都在寻找行之有效的解决办法。
东京工业大学的苦恼
在全球高性能计算领域,日本东京工业大学算是一位“老兵”了。早在2006年,该校就构建了名为“TSUBAME Grid Cluster”的高性能计算系统,在当年全球高性能计算TOP500排行榜中名列第7位,也是当年亚洲最快的超级计算机。过去四年来,TSUBAME承担了日本工业界和学术界的许多科研项目,而且有一部分计算资源还开放给师生使用,因此也被誉为“大家的超级计算机”。
进入2010年,TSUBAME面临升级。而且,此番东京工业大学的目标是构建日本第一套世界顶级的超级计算系统:2.4千万亿次(PFlops)的TSUBAME 2.0!根据2010年6月公布的TOP500排行榜,排名第一的是安装在美国橡树岭国家实验室的CRAY Jaguar系统,Linpack测试能是每秒1.75 千万亿次。
不过,要构建这样一套超大规模的计算系统,东京工业大学至少要克服三大挑战:
首先是空间有限。安装TSUBAME 2.0的机房面积只有200平方米,要知道2009年中国最快超级计算机“天河一号”由103个机柜组成,性能1.206PFlops,占地面积达到近千平方米!可见TSUBAME 2.0对单位机器的计算密度要求相当之高。
其次是电力有限。数据中心供电功率为1.8 MW(1兆瓦=1000000W),比较而言,当前全球最快的超级计算机CRAY Jaguar功耗大约是7MW,今年中国最快的超级计算机曙光“星云”也要2.55MW。因此,对TSUBAME 2.0来说,必须尽可能地提高每瓦特电能所产生的计算性能,即能效比。
第三是资金有限。预计搭建TSUBAME 2.0和未来四年运行费用合计在32亿日元以下(按1日元 = 0.0814元人民币折算,即2.6亿元人民币)。试想一下,如果使用普通的x86服务器作集群计算节点,仅搭建成本就可能超过这一预算,而且如此大规模系统的运行电费和管理费用也都是一笔不小的开支。
HP ProLiant SL390s G7大显身手
显然,要构建上述系统,依靠传统的技术方法是行不通的,必须采用新技术。实际上,东京工业大学在TSUBAME 2.0中采用了许多最先进的技术,包括最新的英特尔?处理器技术,SSD固态存储技术,GPGPU异构并行协处理技术、最新的Infiniband和万兆以太网连接技术、超可扩展模块化服务器节点技术等,以尽可能地提高系统的计算性能、计算密度和能源效率。作为TSUBAME 2.0系统的主体,1400多台计算节点采用的是HP ProLiant SL390s G7超可扩展系统。
HP ProLiant SL390s G7(插入机箱为HP ProLiant s6500)
1、 高密度GPU计算
HP ProLiant SL390s G7有两种机型,虽然宽度都只有标准19英寸机架服务器的一半,但在高度上有1U和2U之分。其中,1U半宽的版本主要针对通用高密度计算,在相配套的4U高HP ProLiant s6500机箱里可以装入8个这样的双路服务器节点,即每U空间的计算密度增加一倍,甚至比当前主流的10U16刀片服务器系统的密度还要高。而2U半宽的版本则专门针对需要GPU进行协处理的用户,如科学计算模拟,不仅支持两颗CPU,还支持3块最新的NVIDIA Fermi GPU处理器,从而实现CPU+GPU的异构并行协同计算。
作为当前最主流的高性能计算加速技术,GPU的使用能数十倍、数百倍地提升系统计算效率,而且,在相同计算规模下,其硬件成本只是传统CPU服务器机群的十分之一左右,同时能耗和占地空间可以节省90%以上。因此,对于希望在有限空间和电力条件下构建超千万亿次计算系统的东京工业大学来说,GPU计算无疑是一条最有效的途径。
TSUBAME 2.0使用了1400多台HP SL390s G7作为计算节点,每个节点可搭载两颗英特尔?六核至强? 5600 2.93GHz处理器(通过英特尔? TurboBoost技术可将频率进一步提高至3.196GHz)以及3块NVIDIA Tesla M2050 GPU(基于Fermi架构),合计包含12个CPU核心以及1344个GPU核心(通用计算单元)。总体计算下来,TSUBAME 2.0总共拥有17664个CPU内核和189万个GPU内核,总运算能力达到2391.35TFLOPS,其中超过90%的计算能力来自GPU,使其成为全球首台以GPU为主要运算能力来源的顶级超级计算机。
|