Google数据中心PUE再创新高

2019-02-26    来源:多智时代

容器云强势上线!快速搭建集群,上万Linux镜像随意使用

近日,Google宣称他们位于在加州的数据中心PUE(能源利用效率)上再创新高。若遵循以下指导方针,你同样可以实现更高效的能源利用,一名Google官员这样说道。

Chris Malone是Google的热能技术建筑师,他详细阐述了这个互联网搜索巨人是如何在它的10座数据中心里达到1.16的PUE值。

PUE指标由Green Grid(绿色网格)设计,其计算方式为:PUE = 数据中心总设备能耗/IT设备能耗。

数据中心PUE的目标是让计算结果尽可能的接近1.0。根据Uptime Institute最近的一份调查,数据中心维护人员与所有者反馈的平均数值为1.8,意味着IT设备每消耗1瓦特能源,将额外花费0.8瓦特用于能源转换、制冷与其他开销。

降低数据中心PUE数值最简单的方法就是冷却,Malone说。

“优先考虑冷却问题。”Malone说,“因为这方面通常都有极大的改善余地。”在一个典型的PUE值为2.0的数据中心内,IT设备消耗50%的能源,而冷却设备消耗大约35%左右负载。与之相比,Google PUE值为1.16的数据中心内,设备消耗86%的能源,而冷却仅为9%。

数据中心专家可以通过调整空气流(将冷热气流分离),提高数据中心运行环境温度,使用省煤器与外部空气优化冷却效率,Malone说。

智能电源与备份策略同样可以提高能源利用率。在电源前端,Malone主张尽量减少转换次数。

“理想情况下最好只进行一次转换,”他说。数据中心应该使用最一流的UPS产品。“若选择最先进的商业产品并遵照其最佳实践,将可以减少约0.24的PUE开销。”

即使是微小的变更也能对PUE产生很大影响,Malone说。Google在一个250,000kW的网络设备机房上投资了约20,000美元,该机房之前的PUE为2.2至2.5,现在已经降为1.6。他们采用的技术包括了改善穿孔瓷砖布局,关闭过度冷却至80.6°F(26.9℃),提升相对湿度并减少冷热通道混合。Google不到一年就赚回了相关成本,既没有影响冷通道抑制,也没影响免费冷却,甚至不会对冗余与正常运行时间造成影响。

出席展会的数据中心运维人员也表示Google提供了可靠的建议。

“很显然,我们可以完成此类的变更,”Juan Murguia说,他是墨西哥CEMEX的数据中心经理。诸如存储热空气,并在机房空调设备(CRAC)上增加烟囱这样的简单解决方案“确实有效”,而且“进行这些改进并不会产生多少费用”。

Steve Press是Kaiser Permanente某数据中心设施服务的执行董事,亦对此表示赞同。在大型数据中心中调节冷却效率可以帮助将PUE从1.67降低至1.45,要感谢像Google这样的公司,因为他们,降低数据中心PUE变得更容易了。“像Google这样的企业已经给我们做了榜样,可以放心尝试与购买相关的冷却技术了。”他说。

可是数据中心运维人员依旧需要进行大量的工作,才可逐渐达到理想的PUE。

根据报告,数据中心PUE平均值为1.8,只有大约18%的受访者表示达到了Google“轻松目标”的PUE值1.6,而且有21%的受访者表示当前PUE值在2.0,甚至更高。

在不久的将来,云计算一定会彻底走入我们的生活,有兴趣入行未来前沿产业的朋友,可以收藏云计算,及时获取人工智能、大数据、云计算和物联网的前沿资讯和基础知识,让我们一起携手,引领人工智能的未来!

标签: Google 大数据 互联网 机房 机房空调 搜索 网络 云计算

版权申明:本站文章部分自网络,如有侵权,请联系:west999com@outlook.com
特别注意:本站所有转载文章言论不代表本站观点!
本站所提供的图片等素材,版权归原作者所有,如需使用,请与原作者联系。

上一篇:2015云计算趋势预测

下一篇:王瑞琳:IBM从在中小企业的云应用角度去看他们的思考