联合行动(Joining Forces)
AMD
皓龙处理器在高效能、低耗电方面拥有极为优良的声誉,业界领先的动态功耗管理(OPM)解决方案——AMD PowerNow!
™技术,于2000年6月首度发表;事实上,AMD是第一家将动态频率及电压支持(P组态)功能导入x86处理器的厂商,随着此技术不断提升,当不需要CPU全效能执行时,可按需提供效能(performance
on demand)而大幅降低功耗。在最新、最先进的型态,具备OPM功能的AMD
PowerNow!技术,无需改变内存/前端总线的速度,即可在业界标准的ACPI(Advanced Configuration and Power
Interface)程序管理下,让处理器以多重频率和电压工作。
结合AMD率先推出的双核心技术——将2颗完整的64位处理器封装在单一芯片上,AMD PowerNow!
™技术为数据中心经营者(管理人)提供了物超所值的价值与效能的解决方案:如后文中所详述(请见「内建的效能“designed-in
efficiency”」)。AMD
皓龙处理器在设计之初,即拥有多核心的能力,因此由单核心转移到双核心处理器时,能够简单且具透明性,只需BIOS升级。此外,AMD双核心技术与单核心使用相近的功耗即可运行,提供每一瓦电力最优化效能。
优化过的CPU功耗为数据中心省下的利益看似微不足道,但是随着处理器的增加利益会日益凸显;处理器所需的用电量将极为可观。冷却处理器所需的用电量与电源供应器也是一样。
AMD提供更大的CPU密度(granularity),同时降低总体耗电量,数据中心无须改用大容量冷却系统,就能够以更高的密度和更少的设施成本建立数据中心。
功耗挑战与TCO(Power Challenge and TCO)
数据中心的机架密度和耗电量增加时,管理者并不能总选择重建基础设施;事实上,数据中心的设计通常都会考虑延续使用20年的期限。AMD了解这一情况后,就把设计和制造低功耗、低热量处理器作为目标,许多现有的数据中心是依据热区(heat
local)每平方英尺40~70瓦来设计,然而,在现今的数据中心的环境中,最高密度的机架区域每平方英尺可能超过200瓦,因此设计者指定新的数据中心必须能够应付每平方英尺350~500瓦。
长期以来,冷却所需的用电量一直被视为固定成本,然而智能型冷却系统的设计,加上具备AMD PowerNow!
™技术的系统,能够依据工作负载所需的效能,弹性调整用电量,使冷却的用电量成为一项可变、可管理的成本,部署各项设施所需的用电成本同时也成为可管理的,因为处理器在系统的总耗电量中占了相当大的百分比。
图一
在防止总成本曲线失控上,是极端重要的。在2年前,当数据中心部署了一般的机架,耗电量2千瓦,每平方英尺并发出40瓦热量;而新型、高密度的机架,每一机架的耗电量更可能高达10、15、甚至25千瓦,而且在十年内,每平方英尺发射出的热量更可能高达500瓦,建造数据中心的成本,包含冷却系统在内,将会直线上升。如果数据中心每平方英尺需要大约400美元的建造成本,才能应付每平方英尺40瓦费弃热量,那么所需的空调成本、电力、配电系统、及其它设备,可能使得每平方英尺要花上5,000美元。如此一来,一个50,000平方英尺的设施,几年前可能要花上2千万美元,但现在,若依据未来热区的需求来建造,却可能要花上2亿5千万美元。【注2】
冷却是使数据中心建造成本大幅增加的最主要因素,现今机架系统增加的电力密度,使得温度的上升更加快速,相较于旧式的、低密度的系统,每平方英尺40瓦的热区,10分钟上升华氏25度,每平方英尺300瓦则不需要1分钟就会上升同样的温度。(请参阅图1)
如此令人惊讶的上升幅度代表了2件事:
1.
拥有如此高密度机架的数据中心,必须配备不间断的冷却系统。 2.
资料处理设备必须能够承受温度上升,而且万一冷却系统故障或损坏时,还必须能够规律地自我调整并降低执行的温度。
为当今密集、高热的机架系统提供备援、不间断的冷却系统,已经日渐普及,并已由广为采用的n+1式备用冷却系统转换至2n+1架构,这显然非常昂贵,但为了管理现今高效能服务器所制造的热区,绝对必要。(请参阅图2.由系统组件所输出的高温)
图二
这些资料解释了一个事实,任何能够降低功耗和提升运算效率的事情,都是聪明的投资。因此,基于低温高效处理器的系统,取代刀片服务器(blade)和机架,远比建构新设备来存放不需要的高热组件,更能省下大把钞票。 |