形形色色的数据中心
- 来源:计算机世界 smarty:if $article.tag?>
- 关键字:形形色色,数据,中心 smarty:/if?>
- 发布时间:2010-11-01 13:41
“液体”数据中心
实现完美备份
Iron Mountain 是美国一家专注于存储备份、数据安全的信息管理服务提供商,他们在地下约66 米深处拥有着一座安全级别仅次于白宫和国防部的秘密资料库,用于存放各种最机密和最珍贵的资料。他们还在美国西海岸兴建了一座独特的数据中心,这个数据中心设立在一个石灰岩洞窑中。数据中心采用了独特的制冷方式——低温的石灰岩矿壁代替了空调,来给服务器散热,据称其散热的效率可达每平方英寸1.5 个英制热量单位。
像Iron Mountain 这样把数据中心“入地”的,可以说是走了常人没走过的路。来自美国佛罗里达州阿尔塔蒙特斯普林斯市的IT 团队更是启用了一个大胆的想法,将数据中心搬到原先用于盛水的水箱中——一个容积达到77 万加仑的水箱。
阿尔塔蒙特斯普林斯市只有45000 位居民,位于美国奥兰多市附近。为何要将数据中心建到水箱中,说来有些话长。阿尔塔蒙特斯普林斯市在建造稳固的灾难恢复基础设施,并且优化数据中心的过程可谓一波三折。
Larry DiGioia 是阿尔塔蒙特斯普林斯市的信息服务主管,他还记得,2003 年当他从纽约到这里就任IT 主管才三天,手下网络工程师就来对他说,系统停运了,所有服务器、存储、备份的设备都统统没法使用了。
为了恢复整个系统,让DiGioia 忙乎了两周半时间,他通过备份磁带恢复了大部分数据,但仍有相当一部分数据丢失了。此后不久,DiGioia 又遭受了天灾的打击。2004 年,阿尔塔蒙特斯普林斯市又先后遭到“查利”、“弗朗西斯”和“珍妮”等时速将近200 公里的强烈飓风的袭击。而阿尔塔蒙特斯普林斯市原先建在市政厅里面的数据中心只能抵御时速118 公里.152 公里的飓风。为了保护所有的IT 设备,每次飓风袭来时,DiGioia 不得不所有东西都得打包放入仓库,等飓风过后再重新搭建起来。
“ 所有设备都要拆下来打包, 这是一场可怕的经历。”DiGioia 说,“飓风期间由于没有支持互联网接入服务的基础设施,应急运营中心也关闭了。”
在拆拆装装的反复中,DiGioia 认识到这不是一个长久之计,他认为必须要建造一套更好的基础设施,包括独立的灾难恢复中心,确保关键的备份数据随时可用,并支持恢复点和恢复时间目标。
DiGioia 经过考察后发现,已经废弃的水箱看起来是个合理的场地,这个穹顶式水箱的墙壁厚8 英寸,用钢筋混凝土浇筑而成,离市政厅也仅100 英尺之遥。很快,DiGioia 的想法得到了市政府的认可。然后该市委托第三方在水箱两侧搭建了两幢建筑,一幢用来放置网络设备,另一幢用做行政管理办公室。
在市政厅的旧数据中心里,网络基础设施包括几条点对点的T1 线路,它们通过普通电缆连接至16 个市政府机构,比如警察部门和市政工程处。在新的数据中心,DiGioia 用暗光纤连接这些机构——暗光纤是指未使用的光纤,必要时可随时使用。DiGioia 还从周边的县政府租借了暗光纤,为灾难恢复大大增加了带宽和距离。
在新的数据中心,DiGioia及其团队还通过部署虚拟化服务器软件,把物理服务器的数量从80 台减少到运行30 个虚拟机的12 台四核服务器,这些服务器配置成了通过SAN 来启动。
为了满足该市政府各部门的灾难恢复目标,DiGioia 与各部门会面商谈,确定他们各自的需求,然后对系统进行调整,以满足各种不同需求。与旧环境相比,新的基础设施延长了正常运行时间,还提供了出色的灾难恢复能力。
在新的数据中心,DiGioia先是把数据备份到SAN 上。然后再通过持续数据保护(CDP)系统来把这些SAN 上的数据复制到灾难恢复站点的另一个SAN 上。每个SAN 各有25TB的容量。备份数据在硬盘上保留30 天,然后被覆盖,不再使用磁带,文档归档在光盘和缩微胶卷上。
阿尔塔蒙特斯普林斯市的消防署署长兼建筑官员AnthonyApfelback 说,这次升级不但消除了以前经常出现的内联网停机现象,还让他的部门得以部署几个新的应用软件以便建筑许可证颁发过程实现自动化,从而降低了人工成本。
目前,由于这个水箱中建立的“液体”数据中心的基础设施比过去具有更高的自动化程度,帮助阿尔塔蒙特斯普林斯市建立起一个在线IT 帮助中心,该中心能够对政府各部门的服务请求提供即时反馈,并估计完成工作单大概需要多久。现在,即使像以往那样强烈的飓风来袭,政府部门的网站也不会出现停运的情况,甚至可以做到全年365 天,每天24 小时地提供各项服务。
企业战略集团的分析师BobLaliberte 说,对于那些资金紧张的地方政府来说,完全可以像阿尔塔蒙特斯普林斯市那样利用现有的基础设施或者与周边社区共享设施。“大家都在寻找更新的、更节能的方法来建造数据中心,为此完全可以将目光转向过去忽视的自然环境。”
最Cool 冰球
成就绿色IDC
如果说阿尔塔蒙特斯普林斯市是在一个“湿润”的自然环境中找到了搭建新型数据中心的道路,那么I/O Data Center 公司则相反,在极端干燥炎热的环境中,正运用诸多绿色技术来打造高能效数据中心。
美国菲尼克斯市地处炎热干燥的沙漠地带,通常这里的温度高达43 摄氏度,如果用一种颜色代表这里,绝对不是绿色,而应该是黄色甚至是红色。
但是数据中心及数据中心服务提供商——I/O Data Center 公司就在这里偏偏建造了一个占地18万平方英尺的商用数据中心。在这个数据中心里面,从特殊布局的空调处理机到服务器机架设计,都结合了众多节能设计和绿色技术。其中最引人瞩目,最“酷”的技术,当属冰球蓄冷系统了。
在I/O 位于菲尼克斯市的这个数据中心中,冰球漂浮在注满乙二醇溶液的四只巨大水箱中,温度可冷却到零下5 摄氏度左右。溶液从数百个冰球周围的冷却器中抽出来,在夜间电费较低的时候对溶液进行冷冻。到白天,系统抽运冰球周围的乙二醇溶液,并让其通过热交换器,为数据中心提供冷空气,这样就减少了白天电费较高时运行制冷器的需求。
开发出冰球蓄冷系统的Cryogel 公司的总裁Victor Ott 表示,这种系统节省不了任何能源——最多是耗用能源与节省能源两相抵消,但是的确能省钱。通过将用电时段从白天转移到夜间,I/O Data Center 公司利用电费的差价每转移一千瓦电能可节省1250 美元。
Ott 称,这项技术更环保,因为为了满足用电需求,电力公司往往在白天高峰时段开足马力运行又旧又脏的发电设备,排出更多的温室气体。他说:“它们在夜间发电所消耗的矿物燃料要比白天来得少;而且夜间温度比较低,所以电力公司的发电机运行起来更高效。”
Ott 认为, 使用Cryogel 的冰球构建的蓄冷系统,每小时冷却成本大约每吨花费约60 美元,三五年内就能获得投资回报。这对一些公司来说可能周期过长,但是投资回报率并非大多数准备使用这种技术的企业所考虑的主要因素。 相反,真正的障碍是系统需要巨大的容器(压缩容器或常压储罐),以便将冰球装在相应类型的溶液里。比如在I/O Data Center 公司,Cryogel的冰球蓄冷系统需要四只钢制压力容器,每只容器直径10 英尺、高22 英尺。
这么大的容器的确很占地方,而对大部分数据中心来说最宝贵的莫过于场地了。好在I/O有这样的条件,可以为这么大的冷却设备提供一个放置的空间,但大部分数据中心没这个条件。I/O Data Center 公司的座右铭是“越大越好”,因为他们相信大规模数据中心能够获得规模经济效应,使得绿色技术成为可能。
为了装下这些巨型制冷设备,I/O 对原来的一座灌装厂的厂房进行了改建。2009 年6 月完成了改建工程的第一阶段,主要是给18 万平方英尺的楼面空间装备26 兆瓦的制冷能力。在第二阶段,该公司再开发另外18 万平方英尺的楼面空间,为其提供20 兆瓦的电力容量,预计将在2010 年12 月份完工。I/O 还在这幢建筑里面造了80000平方英尺的办公场地。
BMC 软件公司的IT 基础设施和全球运营副总裁Mahendra Durai 说:“I/O 在菲尼克斯的IDC 有一个独特之处,就是有效地利用了灌装厂这样天花板很高的建筑,并利用现有投入来实现节能效果。”目前,该公司是I/O 凤凰城数据中心的客户之一,租用了320kW 的容量空间。
惠普公司副总裁兼惠普关键设施服务部门总经理Peter Gross 也表示,如果场地不是问题,他赞同使用蓄冷技术,“用冰蓄冷是个好想法。它降低了用电需求,还能省一些钱。”
现在在数据中心中使用蓄冷系统的还为数不多,主要原因就是大家对它的可靠性还比较担心。例如,在白天,当系统输送从冰球出来的冷却水时,数据中心的冷却器关闭。重启冷却器、让它们全速运转需要半小时到一小时。要是蓄冷系统在这期间出现故障,数据中心就暂时得不到冷却。“你不得不关闭整个数据中心,因为等冷却器恢复运转后,数据中心会变得过热。”Gross 说。但是Ott 表示,蓄冷系统在工业建筑中已用了20 多年,是一项成熟的技术。
……
实现完美备份
Iron Mountain 是美国一家专注于存储备份、数据安全的信息管理服务提供商,他们在地下约66 米深处拥有着一座安全级别仅次于白宫和国防部的秘密资料库,用于存放各种最机密和最珍贵的资料。他们还在美国西海岸兴建了一座独特的数据中心,这个数据中心设立在一个石灰岩洞窑中。数据中心采用了独特的制冷方式——低温的石灰岩矿壁代替了空调,来给服务器散热,据称其散热的效率可达每平方英寸1.5 个英制热量单位。
像Iron Mountain 这样把数据中心“入地”的,可以说是走了常人没走过的路。来自美国佛罗里达州阿尔塔蒙特斯普林斯市的IT 团队更是启用了一个大胆的想法,将数据中心搬到原先用于盛水的水箱中——一个容积达到77 万加仑的水箱。
阿尔塔蒙特斯普林斯市只有45000 位居民,位于美国奥兰多市附近。为何要将数据中心建到水箱中,说来有些话长。阿尔塔蒙特斯普林斯市在建造稳固的灾难恢复基础设施,并且优化数据中心的过程可谓一波三折。
Larry DiGioia 是阿尔塔蒙特斯普林斯市的信息服务主管,他还记得,2003 年当他从纽约到这里就任IT 主管才三天,手下网络工程师就来对他说,系统停运了,所有服务器、存储、备份的设备都统统没法使用了。
为了恢复整个系统,让DiGioia 忙乎了两周半时间,他通过备份磁带恢复了大部分数据,但仍有相当一部分数据丢失了。此后不久,DiGioia 又遭受了天灾的打击。2004 年,阿尔塔蒙特斯普林斯市又先后遭到“查利”、“弗朗西斯”和“珍妮”等时速将近200 公里的强烈飓风的袭击。而阿尔塔蒙特斯普林斯市原先建在市政厅里面的数据中心只能抵御时速118 公里.152 公里的飓风。为了保护所有的IT 设备,每次飓风袭来时,DiGioia 不得不所有东西都得打包放入仓库,等飓风过后再重新搭建起来。
“ 所有设备都要拆下来打包, 这是一场可怕的经历。”DiGioia 说,“飓风期间由于没有支持互联网接入服务的基础设施,应急运营中心也关闭了。”
在拆拆装装的反复中,DiGioia 认识到这不是一个长久之计,他认为必须要建造一套更好的基础设施,包括独立的灾难恢复中心,确保关键的备份数据随时可用,并支持恢复点和恢复时间目标。
DiGioia 经过考察后发现,已经废弃的水箱看起来是个合理的场地,这个穹顶式水箱的墙壁厚8 英寸,用钢筋混凝土浇筑而成,离市政厅也仅100 英尺之遥。很快,DiGioia 的想法得到了市政府的认可。然后该市委托第三方在水箱两侧搭建了两幢建筑,一幢用来放置网络设备,另一幢用做行政管理办公室。
在市政厅的旧数据中心里,网络基础设施包括几条点对点的T1 线路,它们通过普通电缆连接至16 个市政府机构,比如警察部门和市政工程处。在新的数据中心,DiGioia 用暗光纤连接这些机构——暗光纤是指未使用的光纤,必要时可随时使用。DiGioia 还从周边的县政府租借了暗光纤,为灾难恢复大大增加了带宽和距离。
在新的数据中心,DiGioia及其团队还通过部署虚拟化服务器软件,把物理服务器的数量从80 台减少到运行30 个虚拟机的12 台四核服务器,这些服务器配置成了通过SAN 来启动。
为了满足该市政府各部门的灾难恢复目标,DiGioia 与各部门会面商谈,确定他们各自的需求,然后对系统进行调整,以满足各种不同需求。与旧环境相比,新的基础设施延长了正常运行时间,还提供了出色的灾难恢复能力。
在新的数据中心,DiGioia先是把数据备份到SAN 上。然后再通过持续数据保护(CDP)系统来把这些SAN 上的数据复制到灾难恢复站点的另一个SAN 上。每个SAN 各有25TB的容量。备份数据在硬盘上保留30 天,然后被覆盖,不再使用磁带,文档归档在光盘和缩微胶卷上。
阿尔塔蒙特斯普林斯市的消防署署长兼建筑官员AnthonyApfelback 说,这次升级不但消除了以前经常出现的内联网停机现象,还让他的部门得以部署几个新的应用软件以便建筑许可证颁发过程实现自动化,从而降低了人工成本。
目前,由于这个水箱中建立的“液体”数据中心的基础设施比过去具有更高的自动化程度,帮助阿尔塔蒙特斯普林斯市建立起一个在线IT 帮助中心,该中心能够对政府各部门的服务请求提供即时反馈,并估计完成工作单大概需要多久。现在,即使像以往那样强烈的飓风来袭,政府部门的网站也不会出现停运的情况,甚至可以做到全年365 天,每天24 小时地提供各项服务。
企业战略集团的分析师BobLaliberte 说,对于那些资金紧张的地方政府来说,完全可以像阿尔塔蒙特斯普林斯市那样利用现有的基础设施或者与周边社区共享设施。“大家都在寻找更新的、更节能的方法来建造数据中心,为此完全可以将目光转向过去忽视的自然环境。”
最Cool 冰球
成就绿色IDC
如果说阿尔塔蒙特斯普林斯市是在一个“湿润”的自然环境中找到了搭建新型数据中心的道路,那么I/O Data Center 公司则相反,在极端干燥炎热的环境中,正运用诸多绿色技术来打造高能效数据中心。
美国菲尼克斯市地处炎热干燥的沙漠地带,通常这里的温度高达43 摄氏度,如果用一种颜色代表这里,绝对不是绿色,而应该是黄色甚至是红色。
但是数据中心及数据中心服务提供商——I/O Data Center 公司就在这里偏偏建造了一个占地18万平方英尺的商用数据中心。在这个数据中心里面,从特殊布局的空调处理机到服务器机架设计,都结合了众多节能设计和绿色技术。其中最引人瞩目,最“酷”的技术,当属冰球蓄冷系统了。
在I/O 位于菲尼克斯市的这个数据中心中,冰球漂浮在注满乙二醇溶液的四只巨大水箱中,温度可冷却到零下5 摄氏度左右。溶液从数百个冰球周围的冷却器中抽出来,在夜间电费较低的时候对溶液进行冷冻。到白天,系统抽运冰球周围的乙二醇溶液,并让其通过热交换器,为数据中心提供冷空气,这样就减少了白天电费较高时运行制冷器的需求。
开发出冰球蓄冷系统的Cryogel 公司的总裁Victor Ott 表示,这种系统节省不了任何能源——最多是耗用能源与节省能源两相抵消,但是的确能省钱。通过将用电时段从白天转移到夜间,I/O Data Center 公司利用电费的差价每转移一千瓦电能可节省1250 美元。
Ott 称,这项技术更环保,因为为了满足用电需求,电力公司往往在白天高峰时段开足马力运行又旧又脏的发电设备,排出更多的温室气体。他说:“它们在夜间发电所消耗的矿物燃料要比白天来得少;而且夜间温度比较低,所以电力公司的发电机运行起来更高效。”
Ott 认为, 使用Cryogel 的冰球构建的蓄冷系统,每小时冷却成本大约每吨花费约60 美元,三五年内就能获得投资回报。这对一些公司来说可能周期过长,但是投资回报率并非大多数准备使用这种技术的企业所考虑的主要因素。 相反,真正的障碍是系统需要巨大的容器(压缩容器或常压储罐),以便将冰球装在相应类型的溶液里。比如在I/O Data Center 公司,Cryogel的冰球蓄冷系统需要四只钢制压力容器,每只容器直径10 英尺、高22 英尺。
这么大的容器的确很占地方,而对大部分数据中心来说最宝贵的莫过于场地了。好在I/O有这样的条件,可以为这么大的冷却设备提供一个放置的空间,但大部分数据中心没这个条件。I/O Data Center 公司的座右铭是“越大越好”,因为他们相信大规模数据中心能够获得规模经济效应,使得绿色技术成为可能。
为了装下这些巨型制冷设备,I/O 对原来的一座灌装厂的厂房进行了改建。2009 年6 月完成了改建工程的第一阶段,主要是给18 万平方英尺的楼面空间装备26 兆瓦的制冷能力。在第二阶段,该公司再开发另外18 万平方英尺的楼面空间,为其提供20 兆瓦的电力容量,预计将在2010 年12 月份完工。I/O 还在这幢建筑里面造了80000平方英尺的办公场地。
BMC 软件公司的IT 基础设施和全球运营副总裁Mahendra Durai 说:“I/O 在菲尼克斯的IDC 有一个独特之处,就是有效地利用了灌装厂这样天花板很高的建筑,并利用现有投入来实现节能效果。”目前,该公司是I/O 凤凰城数据中心的客户之一,租用了320kW 的容量空间。
惠普公司副总裁兼惠普关键设施服务部门总经理Peter Gross 也表示,如果场地不是问题,他赞同使用蓄冷技术,“用冰蓄冷是个好想法。它降低了用电需求,还能省一些钱。”
现在在数据中心中使用蓄冷系统的还为数不多,主要原因就是大家对它的可靠性还比较担心。例如,在白天,当系统输送从冰球出来的冷却水时,数据中心的冷却器关闭。重启冷却器、让它们全速运转需要半小时到一小时。要是蓄冷系统在这期间出现故障,数据中心就暂时得不到冷却。“你不得不关闭整个数据中心,因为等冷却器恢复运转后,数据中心会变得过热。”Gross 说。但是Ott 表示,蓄冷系统在工业建筑中已用了20 多年,是一项成熟的技术。
