您现在的位置是:首页 > IT基础架构 > 计算存储 >

网络存储影响重复数据删除技术的应用

2012-03-05 19:17:00作者: 来源:

摘要将数据以重复删除运算分解为基本元素与索引存储,以及反向运作将经过重复删除运算后的数据回复为原始状态,以便供前端主机存取,都需要消耗运算资源。...

  相比居于第二线的备份设备,网络存储设备有许多不同的特性,连带De-Dupe技术也面临不同的要求:

  对能效更敏感

  将数据以重复删除运算分解为基本元素与索引存储,以及反向运作将经过重复删除运算后的数据回复为原始状态,以便供前端主机存取,都需要消耗运算资源。

  网络存储设备必须应用前端主机即时写入与读取数据的要求,对能效十分敏感,不能允许因执行De-Dupe与还原运算,而导致前端主机的存取出现延迟。

  重复删减率先天较低

  许多备份型De-Dupe技术宣称的20~30倍,甚至是50倍以上的空间节省比率,都是以“每天执行全备份”为基准。

  一般情况下,企业数据的变动量通常有限,每天新增或变动部份,占总数据量的比率并不大,因此若每天都执行全备份,则两次全备份之间,绝大部分的数据显然都是重复的。在这个基础上运用De-Dupe,得到几十倍的空间节省效果是理所当然的。

  但换成网络存储环境,就没有前述那种数据先天就带有很高重复性的现象,能缩减的比率十分有限。

  网络存储直接处理原始数据

  备份装置存放的数据是原始数据的复本,只有需要还原时才派得上用场;网络存储装置存放的,则是必须随时应用前端主机存取的原始数据。因此整合在网络存储设备中的De-Dupe技术,对重复删减运算法的可靠性与可用性,将有更高要求。

  需与其他存储功能整合

  许多增益存储功能,都是基于网络存储设备的原始磁盘进行,如快照Clone远端复制等,因而在网络磁盘运作的De-Dupe,也必须整合这些应用功能,不能因启用De-Dupe而妨碍其他功能执行。


(本文不涉密)
责任编辑:

站点信息

  • 运营主体:中国信息化周报
  • 商务合作:赵瑞华 010-88559646
  • 微信公众号:扫描二维码,关注我们