GPU厂商nVidia的***科学家称,谈到节能计算,CPU因负载过多的传统功能而在执行常见的并行任务方面逊色于GPU(图形处理单元)。nVidia的***科学家和高级副总裁Bill Dally在新奥尔良举行的2010年超级计算机大会上提到,CPU在执行一些当前计算环境中不必要的任务上耗费了大量功率。
他称,“GPU为吞吐量优化,而CPU是为低延迟优化,以获取非常不错的线程性能。”
Dally指出大多数现代CPU具有的一些在追求低延迟的过程中浪费能源的功能。
虽然GPU最初设计用于在屏幕上绘制图形,但现在像nVidia和AMD等厂商将其GPU显卡定位为一种常见的计算引擎,至少是针对那些可分解成多个部分并同步运行的工作负载。
至少一些行业注意到了这个想法,特别是高性能计算(HPC)领域。本周早些时候,中国新开发的天河一号A型系统荣登***一轮的世界超级计算机TOP500名单。该系统除装载了其14000颗CPU之外,还包括了7168颗nVidia Tesla M2050 GPU。 nVidia宣称,如果没有GPU,该系统将还需要近4倍多的CPU,2倍的建筑面积和3倍的电力运转。
尽管Dally的谈话集中在高性能计算利用上,但他表示这个总体思路将贯穿整个计算世界。
“在许多方面,HPC是一种早期采用者,因为其运行规模之大,会较早地遇到可能发生的问题。但这完全适用消费者应用以及服务器应用。” Dally在主题演讲之后接受采访中这样表示。
Dally表示,虽然目前很少的应用是以并行环境为平台,但程序员最终会转向这一模式。“我认为随着时间的推移,人们会将其应用程序转换到并行,这些并行部分将非常适合GPU。” Dally甚至预言系统有一天将能够启动GPU和 CPU ,但他表示他不是特别了解开发基于GPU操作系统的工作。
能耗方面的因素Dally的一些重要租户看重GPU所具备的优势之一。Dally指出, nVidia GPU下一代的架构(Fermi)会为每个执行指令消耗200微微焦耳的功率,CPU却要消耗2纳焦耳的功率,或多出一个数量级以上的功率。
当放大到大型系统的话,这样微小差异就会演变成一道鸿沟。Dally指出,美国国防部高级研究计划局投资研发一个亿亿级计算机(或每秒钟执行1万亿次计算的计算机)。他还称,如果只用CPU来建造这样一个系统,需要在隔壁建一个“核电站”才能满足其能耗需求。
不是高性能计算领域的每个人都完全赞同GPU代替CPU使用的想法。许多人指出一个潜在问题,虽然GPU可能拥有更大的吞吐量,但系统很难给处理器提供那么多的数据。
IBM深度计算部门负责人Dave Turek上周表示,“给每个GPU提供的内存量是很少的,如果真有那么快的东西,你就需要提供给它那么快的速度,如果你没有足够的内存提供给处理器,处理器就只能闲置并等待。”
Dally表示,这个带宽问题并不为GPU独有,CPU也面临同样的困境。“带宽对于任何计算系统都是大问题。”他承认这个问题对于GPU来说更严重。nVidia刚刚发布的GTX 580原始带宽为每秒200千兆字节,而一个“***的”CPU只有大约每秒35千兆字节。他还称“存储系统需要发展以达到更有效率。”
【编辑推荐】