今天,无论是政府和科研机构里的超级计算机,还是大型互联网公司的分布式服务器集群,抑或是服务亿万公众的云计算数据中心,对计算资源的需求越来越高,用到的服务器数量越来越多。然而,大规模计算系统的应用,却面临有限的机房空间、紧张的电力供应、严格的散热与节能环保要求、繁杂的管理维护工作以及有限的资金预算等多方面的限制。为此,从政府到工业界,从IT厂商到用户机构,大家都在寻找行之有效的解决办法。
东京工业大学的苦恼
在全球高性能计算领域,日本东京工业大学算是一位“老兵”了。早在2006年,该校就构建了名为“TSUBAME Grid Cluster”的高性能计算系统,在当年全球高性能计算TOP500排行榜中名列第7位,也是当年亚洲最快的超级计算机。过去四年来,TSUBAME承担了日本工业界和学术界的许多科研项目,而且有一部分计算资源还开放给师生使用,因此也被誉为“大家的超级计算机”。
进入2010年,TSUBAME面临升级。而且,此番东京工业大学的目标是构建日本第一套世界顶级的超级计算系统:2.4千万亿次(PFlops)的TSUBAME 2.0!根据2010年6月公布的TOP500排行榜,排名第一的是安装在美国橡树岭国家实验室的CRAY Jaguar系统,Linpack测试能是每秒1.75 千万亿次。
不过,要构建这样一套超大规模的计算系统,东京工业大学至少要克服三大挑战:
首先是空间有限。安装TSUBAME 2.0的机房面积只有200平方米,要知道2009年中国最快超级计算机“天河一号”由103个机柜组成,性能1.206PFlops,占地面积达到近千平方米!可见TSUBAME 2.0对单位机器的计算密度要求相当之高。
其次是电力有限。数据中心供电功率为1.8 MW(1兆瓦=1000000W),比较而言,当前全球最快的超级计算机CRAY Jaguar功耗大约是7MW,今年中国最快的超级计算机曙光“星云”也要2.55MW。因此,对TSUBAME 2.0来说,必须尽可能地提高每瓦特电能所产生的计算性能,即能效比。
特别声明:本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者在两周内速来电或来函联系。