机房耗电量如何计算?机房的温度和湿度是多少

作者:皇冠app 发布时间:2020-08-03 09:41

  目前我国大型数椐信息中心用电量比起先进国家差距比较大。例如我国机房的能效比PUE在2.2以上,而谷歌(Google)数椐中心PUE值是1.2,他的PUE平均值只有1.07。

  调查国内机房用电分配是:IT占44%,制冷占38%以上(有甚至的高达50%),其余电源、照明占18%左右。可以看出制冷耗电是影响PUE值的关键,空调冷是机房的耗电元凶。

  机柜有服务器(大容量)柜功率为14~30kW;标准存储柜有3~5kW;网络柜1~1.5kW。它们的组合比例是按规划用途设计的,其中标准存储柜占绝大多数,是决定它们的平均功率的决定因素。例如北京电信通三元大厦互连网数据中心(简称IDC):该数据中心内使用了思科、MGE、等多家国际一流厂商的先进技术和设备,;它外网出口有:电报大楼、中国电信、中国联通、中国铁通、中国网通、灶君庙,其次在外省市也有节点,保证最大端到端延迟时间<100ms,网络丢包率<1%,每年网络不可用时间<50秒,可提供的网络利用率>99.99%。该数据中心正在为用户提供全面的高质量服务。

  它的机柜配置如下:机柜总数268台,其中大容量服务器柜10台(每台14kW);网路柜9台(每台1.5kW);设备柜和核心(配电)柜8+4=12台(计80kW);其余全为标准存储柜237台(每台3kW)。以上IT总功率944.5kW,因机柜是单向供电,换到三项并考虑功率因数(0.85)应为:

  该系统用电配置了1000kVA变压器一台;还配置了四台200kVA的UPS电源作为停电急用。

  ⑴ 机房中耗电量大的是大容量服务器机柜,只要把用电大户耗电降下就事半功倍。目前推广应用的云计算储存、云计算技术在IT也得到应用,用标准-模块化技术,采用云存储的高性能机制和PB级规模下高密度低功耗的运作模式将有效控制云计算耗电量,可使大容量服务器机柜用电不大于4kW;

  ⑵ 我们还能透过虚拟化技术,将10部实体服务器整并成一部,即可减少最高80~90%的服务器用电量。

  在IT技术不断普及的今天,数据中心的作用日益体现出来。如何建设一个绿色节能、稳定可靠、能满足不断变化的IT需求的数据中心,也成为数据中心的管理者和建设者们一个非常关心的问题。而云计算、虚拟化以及大数据在数据中心中的应用,使得未来数据中心充满了活力也充满了变数,但我们可以相信更加节能稳定的数据中心离我们以及不远。

  ⑶ 大量智能模块的应用;如电压调节模块、自动检测模块、系统自动控制模块可使机房在最节能有效情况下运行。

  ⑴ 国家有关部门高度重视我国数据机房的能效鼻PUE值在2.2以上,专家也呼吁尽快制定机房建设节能标准。估计新的标准PUE在1.2~1.6之间;

  ⑶ 企业也在根据自己的需求建设技术先进、功能使用,经济合理、绿色环保节能的数据中心上下功夫。在节能要求上尽量要求设计部门细致做到最先进的机房布局;采用自然进气,尽量减少制冷设备的使用。还有很多降低电耗的方法,如:

  ① 降低大容量服务器的用电量,比如我公司服务器并不需要绘图处理器等,因此拿掉不需要的零组件,不但减少电力的浪费,由于零组件数量降低,风扇的使用数目也可减少,提升整体服务器的用电效率;

  ② 加装气流辅助设备,如果有建置高密度机柜的机房,高密度机柜容易产生热点,可以在机柜后方加装气流辅助设备,这样一来,热空气就不是透过热通道将热带走,而是透过气流辅助设备,将机柜的热量集中直接往天花板排送,加速机柜的的散热速度。

  ③ 平均分配高密度机柜——高密度机柜如果摆放的位置过于紧密,容易因为热点,造成机柜冷却效率不彰,此时,如果只是强化冷却效果,不但造成空调的浪费,机柜冷却的效果有限。于是,将高密度机柜平均分配在整个机房环境,比方来说,机房某一个区域,都是摆放负载量不大的机柜,这个时候就可以将部分高密度机柜摆放至该区域,也因此,透过「借用」未充分使用的冷却效能,不但可以解决高密度机柜所造成热点的问题,透过平均分担,也减轻空调系统的负荷,更重要的是,也减少空调系统电力的支出;

  ④ 采用无变压的UPS设备——随着企业规模的扩增,IT设备的采购量也会跟着递增,设备越多,就需要更多的UPS设备来强化电力系统的稳定性与可靠度。目前有越来越多的厂商推出无变压式的UPS设备,可以让整机效率提升至90%,相较于传统的UPS,效率只有75%至85%,透过无变压器的UPS能更有效率的使用电源,让每一度电都花费在系统运作上,进而降低电力成本;等等。

  机房面积计算公式:A(主机房面积)=F单台占用面积3.5~5.5m2/台(取中间值4.5)*N机柜总台数

  机房计划安装30台机柜,每个机柜按照3kw功耗计算,机房内机柜设备的耗电将在3kw*30台=90kw。

  考虑UPS运行在60%和70%之间是最佳状态,建议在上面的计算结果除以0.7进行再一次放大。

  为了电源端的安全可靠性,建议采用UPS机器配置1+1冗余方案,因此需要两台200KVA的UPS。

  所以:机房内所需制冷量197.5KW,建议在制冷量上做40%冗余。采用320kw的制冷空调(制冷功率80KW空调4台)

  UPS系统延时单台30分钟需选用12V-200AH电池32节,两台需要64节。

  以上合计28M2此数据为设备实际占地,无维修空间,维修空间的面积为设备实际占地面积的2-3倍倍。所以UPS、配电及电池占地面积约70M2。

  空调选用4台空调,单台空调占地面积为2.1 M2,空调为全正面维护,实际占地为空调本身的一倍就可以约为4 M2。4台空调共16 M2。

  机房工作站、存储等占地面积135M2+ UPS、配电及电池占地面积70M2+空调占地面积16M2=221M2

  A 类机房:包括干线传输枢纽和设置长途交换机、省际/省内骨干信令转接点、省际/省内骨干智能网SCP、省际/省内骨干数据网设备的电信机房及其动力机房等。

  域网核心层设备)、IDC、拨号服务器的通信机房及其动力机房,进口程控交换母局和5万门以上的国产程控交换母局机房及其测量室、动

  力机房,服务重要用户及要害部门的交换、传输、数据设备通信机房,长途干线上下话路站等。

  C 类机房:包括5万门以下国产程控交换母局、城域网汇聚层数据机房及所属的动力机房,长途传输中继站等。

  D 类机房:包括设置固定电话模块局、用户接入网、城域网接入层设备(小区路由器、交换机)、DSLAM设备、线缆进线室机房等。

  注:可接受的温、湿度范围是指在短时间内(连续4小时以内),允许设备在低于、或高于正常温、湿度范围的条件下工作的温、湿度


皇冠app
© 2013 北京格林吉能源科技有限公司.版权所有