技术开发 频道

揭秘百度PUE国内第一的技术倚仗

  【IT168 资讯】导语:PUE(电能使用效率)从2.5降到1.36代表什么?来看一笔账就清楚了:一个10万台服务器规模的数据中心,若按PUE为2.5计算,其年耗电约6.57亿度电;把PUE降低到1.36,年耗电则为3.57亿度,节能率达到45.6%,年节电高达3亿度,若按综合电价0.9元/度计算,可节省成本高达2.7亿元。近12个月,百度M1数据中心的平均PUE 即为1.36,非常好的PUE达到1.18,它是如何做到的呢?

  近期,在云计算发展与政策论坛召开的第三次高端会议上,公布了“数据中心分级评估”结果,百度M1云数据中心以PUE(数据中心的能耗指标)1.36,取得了PUE第一的非常好的成绩(PUE越接近1越好,业界的平均PUE为2.5)。据悉,该评估由工业和信息化部电信研究院联合国内的主流电信运营商、互联网服务提供商和设备制造商及有关科研院所共同发起,代表着国内数据中心评估工作的最高水平。

  下面笔者向大家分享百度M1云数据中心是如何通过软件、硬件、基础设施协同创新,既获得PUE国内第一的佳绩,又提高能源综合利用效率,实现绿色云计算的。

  PUE创国内非常好的水平

  百度M1云数据中心设在北京。该数据中心采用新型的节能供电架构为IT设备供电,制冷与空调系统采用免费冷却(Freecooling)、变频及先进的气流组织等多项绿色节能技术;系统可用性为99.99%。依托多层面技术创新,M1云数据中心2012年平均PUE达1.37,近12个月平均PUE为1.36,非常好的PUE达到1.18,处于国内最好水平。

  百度M1云数据中心是如何“瘦身节能”的呢?百度根据多年来先进的数据中心运营经验,率先提出绿色数据中心创新理念:数据中心是一个整体,基础设施与IT设备及软件协同,节能从源头开始,把每个环节能效做到极致。

  数据中心的能耗源头在哪里?追根溯源,数据中心的能耗从来自IT设备运行消耗,以及为其提供稳定运行环境的“风、火、水、电”等配套基础设施上。

  首先,基础设施能效用PUE来衡量,但它并不孤立。在百度看来,基础设施与IT设备及软件的协同是数据中心运营成败的关键,PUE是整个数据中心基础设施效率的重要指标,可以通过自然冷源利用、提高电力转换及冷却效率来实现。

  其次,IT设备是数据中心的核心,IT设备的能效优化是实现数据中心由内而外优化的重要手段。通过提高IT设备性能,剪裁、定制及优化,减少IT设备数量,节省能耗。

  再次,软件运行在IT设备之上,是数据中心的关键应用,软件的架构与效率是影响数据中心成本与效率的关键因素。例如:百度数据中心充分考虑了用户早晚使用习惯上的差异,按时间段智能分配数据中心的工作任务,实现数据中心节能高效。

  下面为大家分别介绍M1数据中心在这几个方面的节能技术:

  软件架构优化  降低冗余资源

  提高设备利用率,是降低能耗的重要途径之一。百度M1数据中心,部署了百度自主开发的在线离线业务混布系统,以及自主研发的服务器流量调度系统,在大幅提高在线机器的利用率的同时,极大限度地降低业务为应对突发事件而预留的冗余服务器资源,大大提高了能效。

  百度部署在M1机房的流量调度系统,能够实施灵活的调度策略:进入M1机房的流量,可根据需要适时调度到本地进行处理或者调度到其他机房的业务集群进行处理,整体上大幅减少在线服务器冗余机器数量,提高IT设备的负荷率,进而提高数据中心能效。

  IT设备节能  大幅降低能耗

  ARM服务器节能——百度作为互联网行业的领导者,在2012年底实现ARM Server端全球首次规模应用。ARM采用精简指令集(RISC)的解决方案,每台服务器的CPU功耗降低到原来的十分之一,同时存储密度提升70%,TCO降低25%。

  通用服务器节能——百度服务器从绿色节能部件定制、固态硬盘(SSD)应用、电源效率优化、主板改造、去除冗余、与IDC环境结合的风扇优化策略等多个手段同时出击,单节点降低能耗25%,即在相同的供电、制冷设计及用电情况下,服务器装机数量提升25%,整个数据中心的计算及处理能力大幅提升。

  GPU服务器节能——在互联网行业中,百度首家将GPU用于机器学习领域。百度针对GPU的体系特征,对数据结构进行重构,对程序重新进行开发和优化,最终取得了对比CPU单核加速400倍的成果,将每瓦特的计算能力提升34倍。

  整机柜服务器节能——共享架构设计是整机柜服务器设计的核心理念。在M1研发投产的整机柜服务器,以机架为基本单元,采用集中供电、集中散热架构,TCO降低10%,交付效率提高10倍。

  数据中心关键设施节能  把PUE做到最好

  高效水冷空调系统,把Freecooling做到极致——百度结合国内自然环境及产业条件,实现多种节能技术在自建数据中心的非常好的实践。百度M1数据中心采用高效的冷冻水空调系统,并结合一系列先进技术以提高制冷及空调系统能效。例如,采用水侧Freecooling系统设计,充分利用室外自然冷源,尽量减少冷水机组运行负荷和时间,大大降低了数据中心能耗;通过精细化管理和运维调优,提高冷水机组的供回水温度等技术措施,使冷水机组能效提升20%,免费冷却时间延长25%。M1数据中心2012年全年约50%时间实现完全免费冷却,成为国内最节能、最环保的数据中心。

  采用先进的设计手段优化气流组织——百度数据中心研发团队率先在M1数据中心项目中引入先进的气流优化设计手段,采用CFD (Computational Fluid Dynamics)辅助进行机房气流组织方案设计,优化机房设备布局、细部规格尺寸、参数设置和维护维修策略等。通过对多种方案的对比,最终确定架空地板高度,冷通道高度,空调间吊顶封闭等设计,实现了气流组织最优,保证了高效的冷量输送,节约能耗。

  国内首次采用市电供电架构——传统T3可用性机房采用单UPS系统双路输出供电系统架构。百度数据中心研发团队经过一年多的测试与小规模应用,在M1数据中心提出简化供电系统结构大胆构想,在国内首次大规模采用市电主供,冗余电源作备份的新型供电架构,UPS系统整体损耗降低近10%。

  化繁为简,关注节能的每一个细节——优化供电结构,合理布局,采用高压备用柴油发电机组,低压供电系统深入负荷中心,末端去除STS及隔离变压器,降低建设成本、减少转换级数以降低能耗。针对IT负荷谐波较大的特点,选用节能型变压器,减少铜损和铁损;选用高效IGBT整流、模块化UPS,提高功率因数,降低谐波污染,实现节能。

  利用自然条件 设计节能建筑

  M1数据中心由厂房改造而成,在改造过程中心,采用外墙保温技术,最大限度减少室内外温度传导。在机房平面布局时,设置环形走廊,将机房区域设置在建筑环廊内区,最大程度减少冷量损失;外沿为走廊区域,充分利用自然条件,减少空调开启时间,实现节能运行。

  总结

  一个10万台服务器规模的数据中心,若按PUE为2.5计算,其年耗电约6.57亿度电。通过基础设施节能把PUE降低到百度的1.36,年耗电减少为3.57亿度,节能率达45.6%,年节电约3.0亿度。若通过软件架构优化,节省20% IT设备,年耗电量减少为2.86亿度,节能率为20%。通过IT设备进一步节能优化,节省25%能耗,年耗电进一步减少为2.14亿度。按百度的节能创新理念进行节能瘦身,除节省2万台服务器及网络设备投资外,数据中心综合节电率达67%。

  作为互联网搜索的入口,百度承载着数亿网民检索需求,满足海量计算的数据中心规模将日益庞大。百度从软件架构、IT设备、数据管理效率等多方面入手,致力于绿色IT建设,将对产业链上下游的参与起到良好的示范和带动作用。

 

特别提醒:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。
0
相关文章