近期发生了数据中心跳大海事件,据悉,此事件真相是微软正在测试可在数百英尺海底下运行的“自给型(self-contained)”数据中心原型机。微软研究院特别项目经理BenCutler谈到微软建造海底数据中心的原因时,特别强调了对机房散热使用海底免费冷源对于数据中心运行稳定性与经济性的考虑,认为这是数据中心自动化是行业必然趋势。可见,他们是有多心疼电费。
但这不怪他们,互联网时代腾讯,阿里巴巴,Google,Facebook,Microsoft逐鹿中原,以大数据、大用户等信息为核心资源的这些互联网巨鳄,数据中心是他们赖以生存的根本!数据中心内部设备复杂,散热量大,制冷要求高,保障性要求也高,制冷电费相比一般公共建筑是呈指数增加!早在2010年,当时Google拥有90万台服务器,年电力消耗19亿度,那得多少钱?!目前Google服务器台数以比当时增加了一倍,每年都恨不得想忘了交电费这件事儿。
不过根据JonathanKoomey的调研报告,Google非常注重打造节电高效的数据中心, Google服务器的数量占全球服务器数量的2.8%,但其电力消耗低于全球水平,仅1%.同样注重数据中心节能的是另一家美国互联网公司 Facebook.Facebook 提出了全新的“开放式计算项目”,目的就是让众多专业厂商加入进来,打造节电高效的数据中心,做“节能派”的数据中心。
如何节能低碳运行一座数据机房,来看看谷歌、Facebook他们是怎么做的吧。
FACEBOOK北极圈数据中心? 每天处理45亿个"顶”
Facebook将美国本土之外最大的的数据中心建立在位于瑞典北部城镇吕勒奥(Lulea),吕勒奥位于波罗的海北岸,距离北极圈只有100公里之遥,当地的气候因素是Facebook选择在吕勒奥建立数据重要原因之一。据Facebook介绍,自1961年以来,吕勒奥的气温高于30度的时间不超过24小时,在该地区建立数据中心将节省一大笔散热开支。
这里冬天平均气温差不多零下20度,外界的冷空气被泵进中心大楼内,服务器产生的大量热空气和进来的冷空气循环交换,形成自然冷却的过程。
进风风扇
散热风扇
空气过滤
机房内部
FACEBOOK俄勒冈州数据中心? 每天处理45亿个"顶”
该数据中心位于俄勒冈州普林维尔(Prineville),普林维尔的高原沙漠气候适合建造数据中心。高原沙漠地形意味着气候非常干燥,但又很少酷热。十分适合采用蒸发冷却进行散热,与普通数据中心相比,Facebook数据中心的能效高38%,建造成本低24%。
干燥空气进入数据中心先通过滤墙,用来过滤空气。
空气在这里混合,用于控制湿度和温度,同时还有很多巨大的风扇。
然后由小型喷嘴把水喷到空气中,随着水分迅速蒸发,空气被冷却。
Google数据中心? 数据中心遍布世界各地
Google在世界各地拥有36个数据中心。每当你使用谷歌产品时,你都会与其位于世界各地的一个或几个数据中心产生联系,让我们感受一下谷歌数据中心的风采。
?
Google芬兰数据中心
数据中心靠近北极圈,使用低温海水冷却整个数据中心。
冷空气从地板送出,进入机箱,用塑料卷帘隔绝热空气。
数据机箱背后,是几百万个风扇形成的风道对服务器进行冷却。
机房内部
Google南卡罗来纳州数据中心