小白必看 高级数据中心设计三大要点

2018-06-11    来源:

容器云强势上线!快速搭建集群,上万Linux镜像随意使用

数据中心的设计要点可分为以下四个方面:总体设计目标、供配电系统设计、空调系统设计。

1.总体设计目标

可用性指标

达到行业最高的A级和T4级,以满足用户的要求。

功率密度

平均至少达到1Kw/m2以上,未来应达到2Kw/m2级别;

支持15Kw-30Kw级别的高负载设备的紧密部署。

运用部署灵活性

IT运行区:

集中和大开间,以提供弹性部署;

与基础设施分离,以提供多级别的安保措施。

配电和网络布线:

上走线方式,以便于长期使用中的灵活调整性;

可重新部署的末端配电,以支持不同设备的用电要求。

高可用性设计:冗余设计是基本前提

可用性和冗余设计

a.【任何的】基础设施都需要调查和维护,并且都不能排除故障风险。因此冗余设计是保障高可用性的必要前提。

b.双路、多路并行是冗余设计的基础,但不是全部。冗余设计的深度和方式,才是高可用性的核心。

c.整体可用性=各部件可用性的乘积:

并机数据的增加,将导致并机单元的可用性下降。

【对策】:大功率组件,配合适当的负载分区(缩小负载要求)。

串联数量的增加,将导致串联环节的可用性下降。

【对策】:在每个环节之间安排两路之间的跨接(终止串联)。

整体可靠性

可靠性=基础设计可用性ד管理成熟度”

“管理成熟度”的参考依据“ISO20000、ISO27001…

功率密度:低密度还是高密度?

低密度布局只能是不得已的应付策略:

a.以面积换供电和制冷能力:供电/空调以外部分的投资/费用被加大;

b.运行效率下降、成本上升。

高密度策略是合理的出路,但存在难点:

a.分布式/机柜级系统:在机房多出散布大量的机组

难点:设备运行空间被分割:灵活性下降,对运行管理带来复杂性。

b.采用水冷的分布式/机柜级系统:

难点:水管路系统进入运行区:难以地板下布线;需要有事故排水系统。

c.集中式冷源系统(含风冷和水冷):

难点:庞大的送回风空间需要建筑解构的配合;不便于解决“热点”问题。

用于外包服务的数据中心的发展方向:

将以集中式水冷冷源为主,并以辅助的分布式/机柜机冷源应对“热点”。

2.供配电系统设计:

相对简单的:依据A级/T4级数据中心规范,采取N+N双路冗余设计。

损耗及线路安全问题:由于用电量极大,设备布局问题需要引起足够重视。

全容错的供配电系统:

柴油发电机系统:

3.空调系统设计

对于高等级数据中心,空调系统的设计最具挑战性:包括极高的制冷要求;集中布局,与IT设备分离,长距离送风等。

应对措施:

室内部分:

a.使用独立的下送风和上回风方式或者上送风管系统;

b.加大送风层和回风层的高度,以满足高负载、低风速的静压箱条件:

送风层/回风层净高度(mm)≈0.6~0.7×设计平均功率密度(w/m2)

(条件:运行区深30~36m,双向对置)

室外部分:

室外机的冷却气流的组织同样重要,进行双向对置摆设,以达到合理的冷却要求。

电能使用效率:PUE=(IT设备用电量+辅助设备耗电量)/IT设备用电量。

通常PUE为2.0~3.0,越接近1越好;

辅助设备耗电的费用,在相当程度上影响数据中心的运行费用。

辅助设备耗电量中,空调系统通常占据50%以上

使用风冷系统的数据中心,PUE不可能小于1.8,通常在2.0以上

风冷系统+自由散热,是成为绿色数据中心的基本条件。

水冷系统带来的设计难点:

水系统的冗余设计:双管路或环形管路

事故应急泄水:从屋外到管井、管廊

供水保障:多水源供应以及蓄水池

原文链接:http://server.51cto.com/BuildDC-251430.htm

标签: 安全 机房 网络 问题 行业 用户

版权申明:本站文章部分自网络,如有侵权,请联系:west999com@outlook.com
特别注意:本站所有转载文章言论不代表本站观点!
本站所提供的图片等素材,版权归原作者所有,如需使用,请与原作者联系。

上一篇:故障修复实例:连接错误,导致网络崩溃

下一篇:花小钱儿 翻新硬件能否进入数据中心?