大数据与云计算下的数据中心基础设施构建
新旧年交接之际,国内云计算行业发生的几件大事掀起不小的波澜:年前,亚马逊AWS、IBM SCE+ 宣布正式入华;年后,阿里巴巴、百度、京东、蓝汛、世纪互联等10家云服务商通过可信云服务认证。国内的云计算市场在经历了几年的酝酿之后迎来了一个发展的高峰。而在国外,有统计显示2013年的IT投入中,70%的CIO首先考虑云计算;在IT服务领域,云服务的占比上升至45%。通过这些信息不难看出,随着基础设施的完善和各类应用的落地,云计算已经成为IT市场的强大力量。
云计算的实现离不开数据中心的支持,而云计算本身又在驱动着数据中心的变革。云计算的精髓在于资源的虚拟化,IT软硬件架构与传统架构相比有很大的不同,特别是硬件的变化,主要表现为IT设备的高度集中、高发热、高耗能,驱使底层的风火水电等配套设施的作出相应改变。
数据中心的变化可以从“宏观”和“微观”两个角度去解析。在刚刚结束的2013IDC产业大典上,来自工信部的领导表示,目前数据中心呈现规模化、绿色化的发展态势。2013年8月份发布的《关于促进信息消费扩大内需的若干意见》提出了统筹互联网数据中心等云计算基础设施布局的发展方向,在同期发布的关于加快发展节能环保产业的意见则重点提出了开展数据中心节能改造、降低数据中心、超算中心服务器、大型计算机冷却能耗等要求。
宏观的大方向是规模化和低能耗,其核心在于追求PUE的降低,以及数据中心整体能耗的减少。然而在微观看来,在数据中心内部IT设备则朝着高密度、高耗能的方向发展。以Google的数据中心为例,Google提出“容积比”的概念,在其“指引”下,数据中心整机柜的设备密度变得很高,对电量的消耗也变得巨大,平均每个机柜的供电功率要求高达14KW。这个数字究竟有多高?据机房电源领域的专家、中达电通关键基础架构产品开发处高级经理李南介绍,传统数据中心单机柜供电功率一般在2KW~3KW之间,云数据中心单机柜一般能在7KW~8KW,而能够达到10KW就算很高了。由此可见,Google在供电功率的要求上达到一个。
不难看出,云数据中心对基础设施的要求首先是供电功率的提升,而机柜在高密度、高功率下的发热量又是非常大的,因此对制冷系统也提出了不小的挑战。另外,云数据中心由于虚拟化技术的应用给供电和制冷带来新的问题,即动态负载。李南介绍说,动态负载是由虚拟化技术带来的机柜负载大幅度跳变,“比如上午某机柜负载功率是5KW,而到了下午很有可能转到了其他机柜。在日常运行中,负载动态变化对供电的影响较小,对环境基础设施影响较大,尤其是制冷系统。”一般情况下,数据中心制冷的决定了PUE的高低。所以,电源和制冷系统是否“给力”,是云数据中心是否符合“宏观发展”的关键。
供电设计多样化 直流UPS领风骚
数据中心对供电的首要诉求是稳定性,即保障数据中心业务稳定、安全、可靠地持久运行。当然不同的行业,对可靠性的要求也存在较大差异。李南拿传统互联网业和金融业作比较:“简单来说,如果用户浏览百度时忽然间中断几分钟,可能大部分人不以为意。但是银行则将供电可靠性视为业务安全的一部分,又提高了一个层次,一旦数据中心发生宕机,其损失和影响非同小可。”所以各类的数据中心要求是不一样的,比如IDC机房分为VIP区和普通用户区,也是根据不同客户的不同要求来建设。
云数据中心在供电设计时需要面对的问题可以概括为:设备集中、供电集中、热量集中、动态负载。李南表示,与过去相比,密度提高以后的供电设计的方法也相应发生了改变。原来的数据中心多采用集中式供电,但现在超大型的数据中心耗电量惊人,需要将原来的大集中式供电变成区域式供电,同时运营商又在尝试分布式供电(一个电源带几个机柜)。“电源有容量的限制,所以集中化带来不同的供电模式,而且这三种方式都有应用。这是设计方法上的变化。”
在可靠性标准方面,遵循TIA-942有量化的指标,而相应的方案也都非常成熟了。据李南介绍,以Tier4为例,在供电上要做双系统,即通常讲的2N系统,两条母线同时运行,当一条母线出现问题,另一条母线可以完全担负所有负载。具体到产品,直流UPS由于减少了逆变环节,实际上提供了系统的可靠性,同时在成本上也会更低。他说:“中达电通是国内早做直流UPS的厂家,产品已经在某运营商部署并稳定运行3年时间。”业界普遍的看法是直流UPS代表了UPS未来的发展方向。而对于目前没有大面积推广使用是原因,李南认为有以下几点:,直流UPS尚未形成统一标准,在新的供电标准诞生之前无法满足合规性要求。第二,标准的改革牵涉各方利益,IT厂商还不愿意做过多的电源输入端的调整。第三,客户的习惯不容易被打破,虽然互联网和运营商有意愿也善于尝试新技术,但其他的行业用户由于技术较弱,所以相对保守一些。传统金融业比较特殊,比如银行的技术较强,但是由于业务的敏感性,他们不愿尝试新的技术。
机房节能空调 http://www.deltagree***.cn/productlv4-449-727.html
云计算的实现离不开数据中心的支持,而云计算本身又在驱动着数据中心的变革。云计算的精髓在于资源的虚拟化,IT软硬件架构与传统架构相比有很大的不同,特别是硬件的变化,主要表现为IT设备的高度集中、高发热、高耗能,驱使底层的风火水电等配套设施的作出相应改变。
数据中心的变化可以从“宏观”和“微观”两个角度去解析。在刚刚结束的2013IDC产业大典上,来自工信部的领导表示,目前数据中心呈现规模化、绿色化的发展态势。2013年8月份发布的《关于促进信息消费扩大内需的若干意见》提出了统筹互联网数据中心等云计算基础设施布局的发展方向,在同期发布的关于加快发展节能环保产业的意见则重点提出了开展数据中心节能改造、降低数据中心、超算中心服务器、大型计算机冷却能耗等要求。
宏观的大方向是规模化和低能耗,其核心在于追求PUE的降低,以及数据中心整体能耗的减少。然而在微观看来,在数据中心内部IT设备则朝着高密度、高耗能的方向发展。以Google的数据中心为例,Google提出“容积比”的概念,在其“指引”下,数据中心整机柜的设备密度变得很高,对电量的消耗也变得巨大,平均每个机柜的供电功率要求高达14KW。这个数字究竟有多高?据机房电源领域的专家、中达电通关键基础架构产品开发处高级经理李南介绍,传统数据中心单机柜供电功率一般在2KW~3KW之间,云数据中心单机柜一般能在7KW~8KW,而能够达到10KW就算很高了。由此可见,Google在供电功率的要求上达到一个。
不难看出,云数据中心对基础设施的要求首先是供电功率的提升,而机柜在高密度、高功率下的发热量又是非常大的,因此对制冷系统也提出了不小的挑战。另外,云数据中心由于虚拟化技术的应用给供电和制冷带来新的问题,即动态负载。李南介绍说,动态负载是由虚拟化技术带来的机柜负载大幅度跳变,“比如上午某机柜负载功率是5KW,而到了下午很有可能转到了其他机柜。在日常运行中,负载动态变化对供电的影响较小,对环境基础设施影响较大,尤其是制冷系统。”一般情况下,数据中心制冷的决定了PUE的高低。所以,电源和制冷系统是否“给力”,是云数据中心是否符合“宏观发展”的关键。
供电设计多样化 直流UPS领风骚
数据中心对供电的首要诉求是稳定性,即保障数据中心业务稳定、安全、可靠地持久运行。当然不同的行业,对可靠性的要求也存在较大差异。李南拿传统互联网业和金融业作比较:“简单来说,如果用户浏览百度时忽然间中断几分钟,可能大部分人不以为意。但是银行则将供电可靠性视为业务安全的一部分,又提高了一个层次,一旦数据中心发生宕机,其损失和影响非同小可。”所以各类的数据中心要求是不一样的,比如IDC机房分为VIP区和普通用户区,也是根据不同客户的不同要求来建设。
云数据中心在供电设计时需要面对的问题可以概括为:设备集中、供电集中、热量集中、动态负载。李南表示,与过去相比,密度提高以后的供电设计的方法也相应发生了改变。原来的数据中心多采用集中式供电,但现在超大型的数据中心耗电量惊人,需要将原来的大集中式供电变成区域式供电,同时运营商又在尝试分布式供电(一个电源带几个机柜)。“电源有容量的限制,所以集中化带来不同的供电模式,而且这三种方式都有应用。这是设计方法上的变化。”
在可靠性标准方面,遵循TIA-942有量化的指标,而相应的方案也都非常成熟了。据李南介绍,以Tier4为例,在供电上要做双系统,即通常讲的2N系统,两条母线同时运行,当一条母线出现问题,另一条母线可以完全担负所有负载。具体到产品,直流UPS由于减少了逆变环节,实际上提供了系统的可靠性,同时在成本上也会更低。他说:“中达电通是国内早做直流UPS的厂家,产品已经在某运营商部署并稳定运行3年时间。”业界普遍的看法是直流UPS代表了UPS未来的发展方向。而对于目前没有大面积推广使用是原因,李南认为有以下几点:,直流UPS尚未形成统一标准,在新的供电标准诞生之前无法满足合规性要求。第二,标准的改革牵涉各方利益,IT厂商还不愿意做过多的电源输入端的调整。第三,客户的习惯不容易被打破,虽然互联网和运营商有意愿也善于尝试新技术,但其他的行业用户由于技术较弱,所以相对保守一些。传统金融业比较特殊,比如银行的技术较强,但是由于业务的敏感性,他们不愿尝试新的技术。
机房节能空调 http://www.deltagree***.cn/productlv4-449-727.html