电力斗争 --随着数据中心的发展,如何节省电力
2019-01-10 来源:天下数据IDC资讯
这不仅仅是避免浪费的另一种商业因素。对总体拥有成本有深入了解的基础设施经理,关注在提高数据吞吐量的同时减少电力负荷的重点,将使他们的数据中心具有竞争性的商业优势。
数据中心设施管理者的一个关键指标是最小化功耗并实施效率措施,以减少能源浪费。
数据中心是一个机构内部IT基础架构的关键,消耗着大量的电力。 密集的电子设备产生过多的热量,这反过来又需要冷却。 一般的经验法则是,对于为数据中心IT基础设施供电的每瓦特(1W)电力,通常需要另一瓦特电力来维持安全的温度范围。
合并的电力需求对于定制昂贵的UPS(不间断电源)和电源保护具有进一步的连锁效应,必须指定该电源以支持所需的总kVA(千伏安)额定值以确保不间断运行,即使在停机事件时。
毫不奇怪,大多数大型机构都希望实现环境可持续和企业社会责任目标,同时最大限度地降低运营成本,对其数据中心投资进行详细审查。 这一挑战正在持续,特别是考虑到数据增长的指数速度正在推动对更快,更密集和更强大的数据中心设施的需求。
如今,高性能数据中心几乎完全依赖光纤布线来实现服务器,存储和交换之间的连接。 如果没有光纤布线,数据中心将无法发展以满足未来的容量需求。 与传统的铜缆布线基础设施相比,光缆消耗更少的电力并产生更少的热量,并且在更长的距离上提供更大的数据传输速率。 这些属性对于支持机构在其数据中心环境中以越来越多的数量传输的大量数据至关重要。
以太网交换机
数据中心通信基础设施中最关键的任务和敏感组件是最新一代的千兆以太网交换机。 该设备中的收发器遵循行业标准协议,可实现40GBps(或G)甚至100G的吞吐量。
用于提供40G和100G的主要光学引擎利用并行光学技术和新兴的双工传输选项。 许多机构都希望在从目前的10G级别迁移到更快的通信时实施这些技术。
迁移到40G和100G的问题是使用过时的传统10G中心布线基础设施连接40G接口所带来的中断和成本。 机构面临着增加连接复杂性和传输协议以实现其所需性能的前景。
以一个部署三个满载交换机机箱的机构为例,每个机箱都配有标准的八个48 个 10G端口机架。 每个交换机总共有384个10G端口,总共1152个端口。 1152个端口中的每一个端口都需要一瓦特来为其收发器供电,而交换机线卡本身和其他附件将消耗更多。
将此功率负载加倍以满足冷却要求,保守估计将超过2.3千瓦。 维护该环境所需的布线和跳线消耗了可用的路径,并进一步减少了气流,导致冷却效率低下。
密集的空间
最新一代交换机在更密集的空间占用中使用40G端口来传输相同数量的数据。 在单个交换机机箱上,每个有36个40G端口的8个线卡总共相当于288个40G端口 - 与上例中的1152 x 10G相同。 40G端口收发器每个都需要1.5瓦的功率,并且与10G型号相比,其他组件更少。 即使你将负载加倍以考虑冷却,总量也只能超过0.8千瓦。 紧凑的布线和机箱尺寸的减小进一步提高了冷却效率。
那么如何在利用现有的10G布线基础设施的同时,与基于40G的系统互连? 康宁的Edge8解决方案端口分支模块将每个40G端口分解为四个10G端口。 虽然这需要在数据中心内增加一个机柜,但与三机柜场景相比,净效应是整体空间的减少。 此外,端口分支外壳完全是无源的:它们不需要电源,不需要冷却,也不需要UPS备份。
密度,网络正常运行时间,速度,简单性以及满足未来需求的清晰迁移路径会影响当前和未来数据中心的性能。凭借面向未来的基础架构,可实现快速移动,添加和更改(MAC)以及无缝迁移,数据中心运营商拥有支持未来增长的光学基础。
为新兴传输速度和协议选择和设计光纤基础设施的四个主要原则是:
密度 - 在双工和并行光学器件中实现最高端口数和光纤数量
可扩展性 - 在单个占用空间内逐步增加端口数量的能力
灵活性 - 数据中心硬件内的多个可配置元素
效率 - 实现光纤全利用。
所有权的总成本
拥有自己内部部署数据中心的机构已经从这项创新中受益,这是他们40G迁移的一部分。
但并非所有人都以这种方式配置数据中心。 很大一部分机构和企业将部分或全部数据中心需求外包给主机托管提供商。
多年来,数据中心主机托管提供商主要根据占用的空间和功耗来向客户收费。
与康宁提供的IT传输技术和增强的40G和100G布线选项相匹配的解决方案显著降低了现代数据中心的资本开支和运营支出。
这不仅仅是避免浪费的另一种商业因素。对总体拥有成本(TCO)有深入了解的基础设施经理,关注在提高数据吞吐量的同时减少电力负荷的重点,将使他们的数据中心具有竞争性的商业优势。
相关阅读:
超融合数据中心vs.传统数据中心
IDC圈探营带你盘点2018年数据中心发展特点
版权申明:本站文章部分自网络,如有侵权,请联系:west999com@outlook.com
特别注意:本站所有转载文章言论不代表本站观点!
本站所提供的图片等素材,版权归原作者所有,如需使用,请与原作者联系。
上一篇:超融合数据中心vs.传统数据中心