12月12日消息,Google一位工程师发布警告称,如果当前计算机每瓦耗电量到达的性能不能得到改善,运行计算机的耗电量成本可能会比计算机硬件的价格还要贵。这种情况对于Google不是一个好兆头,因为Google的工作依赖于数千台自己的服务器。
据zdnet.com网站报道,Google工程师Luiz Andre Barroso今年9月份在计算机械协会的“Queue”杂志上发表的一篇论文中指出,如果在未来的几年里每瓦性能保持不变,电源成本可能会很容易超过硬件的成本。计算机设备耗电量的失去控制的恶性循环的可能性将对整个计算的可承受的成本产生严重的后果,更不用说这种耗电量对地球环境的影响了。Barroso以前曾在数字设备公司设计过处理器。
Sun微系统公司似乎接受了Barroso的观点。Sun上周二推出了“Sun Fire T2000”服务器。这种服务器采用的UltraSparc T1“Niagara”处理器的耗电量只有72瓦,每瓦性能高于竞争对手的处理器。Barroso曾帮助数字设备公司设计过一款名为“Piranha”的处理器。这种处理器从来没有上市。但是,那个处理器在某些方面与“Niagara”处理器相似,包括其在一个芯片上使用8个处理器内核。
Barroso建议,要解决耗电量的问题最好是采用Sun的方法:让处理器能够同时执行多个指令,也就是同时处理多个线程。普通的服务器芯片目前能够执行一个、两个或者四个线程。但是,“Niagara”处理器的八个内核能够处理32个线程。
耗电量也是英特尔和AMD面临的一个问题。AMD的Opteron服务器处理器的耗电量最大为95瓦。英特尔的Xeon服务器处理器的耗电量为110瓦至165瓦。其它元件也消耗电源,但是,处理器的耗电量占整个服务器耗电量的50%至60%。
Barroso指出,如果服务器耗电量每年增加20%,一台服务器四年的电费将超过3000美元,高于一台低端x86服务器的价格。Google的数据中心主要使用这种服务器。如果耗电量每年增加50%,到本十年年末,即使当前每千瓦时9美分的电费价格不上涨,电费的成本也要远远超过服务器的价格。Barroso提出的解决方案是更多地采用多线程处理器。
- 相关阅读:
- ·浪潮、西安交大共建西北高校最快超算中心
//server.zol.com.cn/559/5595692.html - ·宿州的新名片:云计算下的智慧城市发展
//server.zol.com.cn/559/5594468.html - ·大数据时代 NAS让你我数据生活零负担
//server.zol.com.cn/558/5581304.html - ·雾霾来了:数据中心该如何参与雾霾战斗?
//server.zol.com.cn/559/5592377.html - ·曙光斩获SPEC性能测试双项全球第一!
//server.zol.com.cn/559/5592548.html