在几天前北京的一次某行业小型研讨会上,几个企业的负责人谈起了存储与灾备的话题,不过他们并不是专业CIO,对存储技术和灾难备份的认识相差很多。他们争论的焦点是:要保证企业的业务连续性,重复数据删除是最实用的吗?其实多数人都觉得是,但他们也说不清为什么。
其实早期的时候,重复数据删除曾经给业务连续性带来过困扰,但最终还是成为了业务连续性中的重要组成部分。我们分析一下重复数据删除与业务连续性的运作方式就能明白其中原因。
业务连续性需要灾备
综合一些企业与业内通用的定义,业务连续性是指企业有应对风险自动调整和快速反应的能力,以保证企业业务的连续运转。为企业重要应用和流程提供业务连续性应该包括以下三个方面:高可用性、连续操作和灾难恢复。这三个部分不是孤立的,它们相互关联,工作也有交叉。但不可否认的是,企业对业务连续性的关心可能更多缘于其灾难恢复能力。
灾难恢复是指当灾难破坏生产中心时,在不同的地点恢复数据的能力,灾难恢复的特点是在不同的地点不同的硬件设备上完成。企业对灾难恢复应该不陌生,从上世纪70年代开始,就有企业在异地建磁带库,只不过当时出现故障时,企业可以容忍用几天时间恢复数据,而现在的企业不但需要在几小时内恢复数据,还要求核心业务不能中断。
说到这里大家应该有个大致概念,业务连续性的重点在于数据灾难恢复,而灾难恢复是通过制造多个镜像达到数据安全的目的的。这估计就是很多人认为重复数据删除技术会影响业务连续性的原因。
重复数据删除可减少损耗
重复数据删除技术其实是一种数据缩减技术,它通常用于基于磁盘的备份系统,旨在减少存储系统中使用的存储容量。
随着全球数据暴增,原本不是很被关注的冗余数据处理技术受到追捧,如何快速准确地判定哪些数据是重复数据,并且将过期的数据删除,仅保留最新版本,正是重复数据删除技术的核心。
只从定义就能看出,重复数据删除技术对远程灾备似乎很有帮助——重复数据删除在本地就对数据进行了清理,而灾备中心的工作效率还会有所提升。采用“重复数据删除”技术可以增加保存备份数据的时间,减少数据中心的消耗,降低成本。而且删除重复数据后再通过网络发送,还能节省大量的带宽。
VTL(虚拟磁带库)大展拳脚
在重复数据删除技术诞生初期,备份中心多采用磁带存储,其存储特点决定了如果使用重复数据删除技术会使备份速度极为缓慢。为了提高备份任务的速度,现在许多灾备中心多采用虚拟磁带库,一些企业自建的异地数据机房也倾向于这种方式。
VTL系统通过使用磁盘而不是磁带进行存储,可以提高备份任务的速度,而且,添加重复数据删除可以极大提升VTL磁盘使用率。在很多情况下,VTL重复数据删除是作为一种带外连接进程来执行的,这使得它可以达到很理想的压缩比。也有一些VTL系统引入了带内重复备份数据删除,以提升实时处理能力。
结论:需求催动新技术应用
由此大家都看明白了——企业对业务连续性的需求是始终存在的,而现在这种需求体现在灾难备份和恢复上;企业与灾备中心都面临数据爆炸的问题,所以重复数据删除技术成了大家关注的焦点;原有灾备中心用磁带存储,用了重复数据删除技术后会导致备份变慢,所以虚拟磁带库VTL顺理成章变成了灾备中心的主力存储设备。
从企业的业务需求,到虚拟磁带库,不管是备份方式,还是数据管理方式,或者存储方式,其实核心都是应用,这也解释了这两个看似不相关的东西为什么会有因果关系了。
特别声明:本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者在两周内速来电或来函联系。