一年耗电超过三峡大坝发电量,中国数据中心需要降温黑科技
文 | 张超
当你拿起手机,通过搜索引擎寻找答案的时候,可能永远不会想到,这一次搜索,大概将消耗能让8瓦灯泡点亮一小时的电量,大概需要数万台服务器瞬间提供计算支持。
这些复杂的计算过程,都通过网络在一个你不知地处何处的数据中心完成了。
而当8亿多中国网民同时在线,发朋友圈,刷抖音,往购物车里放入一件件商品的时候,支撑这些计算的数据中心又将消耗多少电量?
近日,绿色和平与华北电力大学联合发布的《点亮绿色云端:中国数据中心能耗与可再生能源使用潜力研究》(研究报告)报告给出了答案。
2018年,全国的数据中心总用电量为1608.89亿千瓦时,比上海市2018年全社会用电量(1567亿千瓦时)还多,相当于三峡大坝的全年发电量。
低能耗数据中心呼之欲出,这不仅关系到环境的可持续发展,更直接决定了算力的成本和服务的竞争力。
把数据中心放进大自然的冰箱
数据中心成了电老虎,主要是因为IT设备与制冷系统的运转,都需要消耗大量的电能,两者大约各占据数据中心总能耗的40%。
要判断一个数据中心的能耗水平,要看PUE指标。
PUE全称“Power Usage Effectiveness(平均电能使用效率)”,是指数据中心总设备能耗/IT设备能耗,比值越接近于1,表明能效、绿色化程度越好。如果达到1,便可以理解为,这座数据中心把所有电都用在计算上了。
可是,要想降低PUE,就得把数据中心制冷系统的能耗降下来,而这并非易事。
数据中心要稳定工作,降温是头等大事——一枚不带水冷的公版GPU芯片,在满负载运行模型训练任务时,温度会迅速飙升到85℃,而数据中心的服务器CPU芯片,工作状态下表面温度也能达到60-70℃,如果用空气降温,要用20℃左右的空调冷风一直吹,才能让芯片温度维持在50℃左右。
要降低制冷能耗,除非不用空调,将数据中心放到大自然的冰箱中去。这想法听上去很疯狂,却是各大互联网企业近年来一直在尝试并实践的事。
Facebook去北极 微软选择“海底捞”
地球上哪里最冷?Facebook和大家想的一样——南北极,所以他们把美国本土之外的第一个数据中心,建到了瑞典吕勒奥镇边沿的森林中,往北100公里就进入北极圈了。
这里气候寒冷,冬天平均气温差不多零下20℃,相当于一个天然大型空调房。在被过滤器和雾化器处理后,从外界进来的冷空气会像水一样“冲洗”服务器,达到给服务器降温的目的。根据测算,Facebook在吕勒奥镇的数据中心PUE仅为1.04。
此外,瑞典还有大量水电站,可以提供廉价可靠的电力。
另一家科技巨头微软,索性把数据中心搬到了冰冰凉的海底。
2018年6月,微软在苏格兰奥克尼岛的海岸附近安装水下数据中心,深度为35.6米,固定在海底的压载三角基座上。数据中心与潜艇类似,长约12米,里面架设了12个机架,864台服务器,包括所有必要的冷却设施。
法国海军集团改造了用于潜艇冷却的热交换系统,以保证其可以适用于海底数据中心,主要原理是利用管道将海水直接流过服务器机架背面的散热装置,在加热的同时被排回大海,由于海水较大的比热容而且较快的流动性,从数据中心排出的热水可以很快的与周围的海水融合冷却,如此反复,可以有效地降低数据中心的温度。
微软海底数据中心的部署地附近,便是欧洲海洋能源中心潮汐涡轮机与海浪能量转换装置的试验场地,有充足的海水能电力资源,海岸边还有不少风力发电机和光伏发电装置,微软云计算和企业部门云基础架构战略总经理 Christian Belady 表示,利用这些可再生能源可以让数据中心实现能源自给自足。
阿里巴巴把数据中心建到坝上
在中国,作为云计算的引领者,阿里巴巴的数据中心在降温方面也颇有心得。
2015年,阿里巴巴在千岛湖建立了数据中心,利用湖水自然冷却来给服务器降温。该数据中心90%的时间无需借助湖水之外的制冷能源,比传统的空调制冷方式要节约能耗超过八成,比普通数据中心全年节电数千万度,其年平均PUE低于1.3,最低的时候可以达到1.17。
2016年,阿里巴巴又在张北县启用新数据中心,此地位于河北省西北部,属于内蒙古高原南缘的坝上地区,全年平均气温只有2.3℃,且空气质量优良天数高达346天,数据中心可以采用更节能的新风自然冷散热方案,全年大约只有15天的时间需要开启传统压缩机空调,仅制冷能耗就可以降低59%。
另外,张北县境内有大量的风电和太阳能发电设施,可以为数据中心源源不断地提供清洁能源。
据了解,阿里张北数据中心50%的能耗由风电和太阳能电提供,可实际节约标煤3万吨,相当于种植了150万棵树木,设计年均PUE仅为1.25,最低可达1.13。
液冷服务器将为北京冬奥会服务
此外,阿里巴巴还打磨出一项独特的降温黑科技。
众所周知,数据中心电子元器件最怕进水,然而阿里巴巴居然研究出了直接把服务器“泡”在液体里的技术,名叫“沉浸式液冷技术”。
这项技术从2015年起就开始测试,阿里巴巴的工程师采用无腐蚀性的绝缘冷却液,以确保长时间浸没电子元器件,也不会对其产生任何影响。
2017年云栖大会,阿里巴巴正式对外展示了全浸没液冷服务器集群——麒麟。麒麟无需风扇或空调等大型冷却设备,可在任何地方部署,在单位体积内的计算能力比过去提升了10倍。目前,这套全球独一无二的液冷服务器已经在阿里巴巴冬奥云数据中心投入使用。
随着5G和物联网时代的到来,全国数据中心总能耗据预测将在2023年突破2500亿千瓦时。不过,互联网企业在相关领域的研发投入,也许会让数据中心的PUE进一步降低,毕竟这有利于降低企业经营负担,也能减少全社会能源浪费。