存储整合真的行之有效吗?

2018-06-11    来源:

容器云强势上线!快速搭建集群,上万Linux镜像随意使用

    回溯九十年代到最近十年,很多IT部门一定都有一扇通向数据中心的旋转门。更大、更好、更快的设备不断涌入门内,更加陈旧、突然被淘汰的设备被推至一旁。扩展、升级和技术更新让这扇门不断旋转。这就是多数IT经理目前努力解决之工作:发展所造成的遗留问题。在存储系统方面,致力集中于整合。遗憾的是,多数整合的效果却适得其反。

  我们为什么会有这样的看法?弄清楚这一点,也许对当前问题的处理不是特别有所价值, 但有可能对未来的规划有所帮助。这个问题的存在可能看似势不可挡——我们生活在一个数据驱动的世界。 人们似乎对知识产权的保护有着类似宗教般的狂热,导致对每一个数字形式的细节都严加保护,好像公司的未来都悬于这些细节的存在。当然,有的数据的确很重要。但是,很多数据即使被想到,也几乎不会加以考虑,而且永远也不会再读取。法规遵从进一步加深这种偏执狂,致使公司对任何数据都进行存储,好像这样做就拥有免于入狱的王牌。

 

  我认为,那些表面上为了帮助解决这样的混乱而进行整合的技术,不是目前在进一步恶化问题,就是迟早准备这么做。无论这些技术如何在数据中心加以应用,问题是,这些技术可能没有对症下药。
 
  我们看一下服务器虚拟化,这是目前数据中心整合的热门技术。从字面而言, 服务器虚拟化的想法非常符合情理:在众多服务器的一台上,将很多虚拟机(VM)整合,这样可以减少一大堆的物理服务器。但是,根据我听到许多IT经理反应,现实情况中,这是整合工作的初衷。但当系统管理员和用户发现,生成一台新的VM,或者几台VM,或者几十台VM是多么轻而易举的事情时,该初衷就不攻自破了。多数情况下,结果是IT部门拥有的虚拟服务器数量超过了整合前物理服务器的数量。所以,在减少数据中心硬件数量的同时,新的难题和问题随之产生,带来的是从来没有面临过的瓶颈。

 

  重复数据删除是存储整合的宣传语,看上去可能是另一个整合的矛盾体。在某种意义上,为了有效运行和完成去重所需增加的基础设施可能超过了去重本身所具有的好处。当备份数量增长,性能或者容量受到威胁,你将需要添加更多的重复数据删除设备。同时,随着你增加更多这样的设备,你的基础设施和管理负担也随之增加。随着重复数据删除安装扩展到其它方面,这种情况变得更加复杂,例如在远程站点进行添加,或者在重复数据删除设备中复制数据。也许,当初在备份环境中增加更多的便宜磁盘未必不失为一个更好的解决办法……

 

  虽然归档具有明显的好处,但也可能同样带来负面效果。但是,对旧的或者不用的数据从在线系统进行归档,这些数据必须放到某个位置。通常而言,这个位置需要是近线存储(不是磁带),而且可能非常快速地增长。 我的观点并不是说这些技术本质上都是不好的,而是这些技术没有真正地解决问题的根本所在。无论这些工具运行地多好,其结果多么地印象深刻,但毫不夸张地说,它们所移动和存储的包括许多垃圾。

 

  有效的整合必须从减少一些真正的数据着手,准确地评估存储数据,从真正的知识产权中分离那些只存在一次和不是很有用的数据。这就是说,你需要真正了解你将存储的数据,而且唯一可行的方法是,你是否能够准确地对数据进行分类——不是基于有关数据的外围信息,而是基于数据本身。

 

  几年前,曾出现过一些创业公司,其产品在不同程度上有效地对数据进行分类。他们有的被收购,有的不再经营,或者有的转变为电子发现的工具。这并不是说他们的产品没有用处或者没有必要;而是它们出现时,当时的需求并没有现在这么明显。

 

  有的存储厂商已经认识到这个机会,正在忙于数据分类应用的开发,将真正帮助管理已经存储在磁盘和磁带的信息,而不是仅仅在bit和byte之间进行转换。

标签: 服务器 服务器虚拟化 问题 虚拟服务器 用户

版权申明:本站文章部分自网络,如有侵权,请联系:west999com@outlook.com
特别注意:本站所有转载文章言论不代表本站观点!
本站所提供的图片等素材,版权归原作者所有,如需使用,请与原作者联系。

上一篇:Blu-Ray(BD)??新一代蓝光光盘存储媒介

下一篇:2010趋势:SSD推进自动分层存储发展