Joe Kava 最初曾在芬兰南部海岸上,负责将机器人相机送入延伸到波罗的海的地下管道中。这和他最初加入 Google 为其运营数据中心的初衷大相径庭。在 2009 年的二月份,Google 耗资 5200 万美元购买了一座位于芬兰 Hamina (哈米纳)的废弃的造纸厂,他们认为这座拥有56年历史的建筑是建设其众多服务于大量网络服务的大规模计算设施之一的理想场所。
这一计划的一部分曾经考虑到了哈米纳造纸厂有一个用于从芬兰湾抽取海水的地下隧道。原本,冰冷的海水是用来冷却造纸厂的一座蒸汽发电站的,但 Google 认为这也可以用来冷却它的服务器。
那些机器人相机 —— 通过遥控操作经常用在输油管道维护中的水下设备 —— 被用来检测这个穿过造纸厂下方岩层的休眠已久的隧道。当结果出来时,数据显示整个450米长的隧道都处于极佳的状态中,到 2010 年 5 月份,它已经开始将海水运送至 Google 新数据中心内部的散热设备中,帮助冷却数千台处理网络流量的设备。得益于这条岩石隧道,Google 在哈米纳的设施不需要那些在其他数据中心常看到的非常善于消耗能源的电力冷却器。
“当有人告诉你我们已经选好了下一个数据中心的地点,是一个1953年修建的造纸厂时,你的第一反应可能是:‘你在胡扯什么?’,Kava 说道。“‘我该怎么来设计这个数据中心呢?’但我们得知那座造纸厂是用海水冷却时非常激动……我们想尽可能让这座设施更环保一些,而重新使用已有设备是其中很重要的一部分。”
Kava 将这评价为 Google 如何不人云亦云地建立它的数据中心,致力于创造既高效又环保的设施的极好例子。但是其实远不止如此,Google 的哈米纳数据中心是网络时代的一个理想化象征。芬兰的纸浆及纸制品制造商 Stora Enso 在2008年初关闭了它的 Summa 造纸厂,评价说是因为新闻及杂志用纸的生产规模的下降造成了“近些年的持续亏损及悲观的长期盈利预期”。报纸及杂志正慢慢将市场让给网络服务,比如 Google 和一些其他一些大型服务,他们都是由新一代计算机数据中心提供支持的——这些设施可以在消耗相比更少的能源、减轻环境压力的同时处理巨量的负载。
Google 是这项改变的引领者,在不仅仅是芬兰,同时还在比利时、爱尔兰及美国建立这些新一代设施。其他紧随其后的互联网巨头包括亚马逊、微软和 Facebook。去年,Facebook 在俄勒冈州的 Prineville 启用了新的无冷却器的数据中心,它使用外部空气进行散热。最近 Facebook 又宣布它会在瑞典离 Google 的 5200万美元的数据中心不远的地方建立第二个数据中心。
#p# Google 数据中心的秘密
Google 在2008年招聘 Joe Kava 来管理数据中心运营团队,但很快就变成了运营与建设团队。原本,Google 租用已有的数据中心并交由专业团队管理,但是现在 Google 完全自己建设数据中心,到后来它已经完全使用自己的工程师来建设了。“我们过去雇用建筑及工程公司来替我们工作,”Kava 说,“由于近些年的发展,我们培养出了我们自己的天才,我们越来越多地自己完成这些工作了。”
而这些年中,Google 极少讨论对于设施及其内部的硬件的设计。但是在2009年4月份的时候,这个搜索巨头公布了一个展示他们第一个自主设计的数据中心内部的短片 —— 推测应该是在俄勒冈州的 The Dalles ——而且它也多多少少地透露了些在哈米纳及比利时 Saint-Ghislain 的设施。
据 Kava 说,这两个位于欧洲的数据中心都没有使用冷却器。哈米纳的数据中心使用海水冷却,而比利时的数据中心使用蒸发冷却系统,从附近的工业运河抽取用水。“我们设计并制作了一个站内的水处理厂,” Kava 说道,“这样我们就不用使用供应城市的可饮用水。”
一年的大部分时间中,比利时的气候都很温和,足以让机房保持适宜的温度。Kava指出,机房温度不需要像以前那样低。在2008年的时候,美国加热冷冻及空调工程师协会(ASHRAE)建议数据中心的温度应保持在 20 到 25 摄氏度之间——但 Google 建议将其保持在27度以上。
“构建一个高效的数据中心的第一步……就是简单的提高它的温度,” Kava说,“机器、服务器、存储阵列、任何东西在比一般数据中心保持的温度高的多的地方都能很好的运行。对我而言,任何数据中心在18或20摄氏度以下运行都是相当可笑的。”
有时候数据中心内的温度会太高,这时 Google 会让员工离开建筑——但是让服务器继续运行。“我们会有所谓的“远足小时”或者“远足日”。一般来说我们什么都不用做,只是告诉员工不要在那些特别热的时间内在数据中心内工作就行了,稍后把工作赶上就好。”
在比利时这里,有时候会热的连服务器都不能运行,这时 Google 就会将这里的工作移交给其他数据中心负责。Kava 没有给出任何细节,但他表示这种数据中心之间的工作交接涉及到一个叫做 Spanner 的软件平台。这个 Google 设计的平台曾在 2009 年 10 月的一个谈论会上有所提及,但是这是 Google 第一次公开确认 Spanner 确实有在使用。
“如果真的变得很热,需要我们来降低服务器负载时,那么是的,我们有自动化工具和系统来处理这些,比如 Spanner。”Kava说。
根据 Google 在2009年的讨论会上的陈述,Spanner 是一个“存储及计算系统,遍及他们所有的数据中心,并基于限制及使用特点来自动转移和增加数据和计算的副本。”这包括涉及带宽、丢包率、能源、资源及“失败模式——比如当数据中心内部出现错误的时候。
这个平台展示了 Google 对于其数据中心设计的总体理念。他们自己建造东西,并且只对外透露那么些消息。它把像 Spanner 这样的技术看作竞争优势。但是有一点是非常明确的: Google 在重新思考数据中心。
这个理念已经不可避免的对这个行业造成了一些影响。像 Google、微软已经开始对数据中心模块化进行实验——运送预先装好服务器和其他设备的容器——之后可以再和其他容器一同组装成更大的设备。至于 Facebook 公布其 Prineville 设施的设计方案——对于 Google 努力让它的设计方案保持神秘的回应——说明其他人也在跟随他们的脚步。去年晚些时候,Prineville 的城市工程师 Eric Klann 声称,两家没有透露名字的公司——昵称为 “Maverick” 和 “Cloud” 在设想根据 Facebook 无冷却器的设计来建造服务器场,看起来 Maverick 是非 Apple 莫属。
#p# 数据中心很大,细节很少
这个月,为了向世界表明,他们的数据中心有多环保, Google 宣布他们所有自行修建的在美国的设施都获得了 ISO 14001 和 OHSAS 18001 认证——这是国际认可的包括数据中心在内的任何活动的环境友好及安全认证。
这涉及到追踪任何事情,从工程工具到数据中心内的梯子。“你其实能从这些审查中学到很多东西,那些你从来没考虑过的。”Kava说。他所指的是 Google 会对数据中心设计中最细微的部分做考虑——这是针对所有数据中心的。它很快还会为其欧洲的设施申请相似的证书。
在芬兰,Google 的波罗的海的海水冷却设计还有一个点睛之笔。Kava 解释道,海水只是设置的一部分。在数据中心的地上,服务器散出热气,这些热空气被传送到服务器旁边的水冷系统中,然后 Google 将水冷系统中的水与海水混合来冷却。当这个过程结束后,冰冷的海水已经变热了。但是在回到海中之前,Google 会用更多的海水来冷却它。“当我们将水排出到海湾的时候,它的温度和湾内海水温度会很相似,” Kava 说,“这就将对环境的影响降低到最小。”
根据 Kava 所说,公司的环境许可并没有要求控制水温。“这让我自己感觉很好,”他说,“我们不是只做我们被要求做的。我们去做那些我们认为对的事情。”这是一个关于 Google 很平常的消息。但是 Kava 指出那些 ISO 认证说明这家公司正在不断努力达到它的目标。“当局者迷,局外者清。这时第三方的加入就非常必要。”
来自像 Facebook 这类公司的抱怨是 Google 并没有分享足够的关于如何解决那些困扰任何大型网络机构的问题的信息。报告指出 Google 不仅建造自己的服务器,同时还建造自己的网络设备,但是这家公司并没有透露多少消息。报告还指出,至少这些年,Google 已经确实开始分享更多内容了。
我们询问了有关 Joe Kava 关于网络设备的问题,但他拒绝回答。但他确认了 Spanner 的使用。他不断的说到岩层隧道和波罗的海的事情。他甚至还告诉我们,当 Google 购买那座造纸厂的时候,他和他的团队非常清楚这创造了一个超大的互联网象征。“这没能逃过我们的眼睛,”他说。