专家解析微软Hyper-V 3.0的重复数据删除功能

日期: 2013-04-09 作者:Howard Marks翻译:张瀚文 来源:TechTarget中国 英文

在本篇存储决策者大会演讲中,Network Are Our Lives公司的首席科学家Howard Marks介绍了微软Hyper-V 3.0中的重复数据删除功能是如何工作的。 “绝大多数的重复数据删除系统中最基本的一项功能是将数据分割成多个数据块,通过哈希算法辨识出哪些数据块是相似的,然后通过一个个字节的比较找出数据完全相似的部分。如果证实两个数据块包含相同的数据,系统中只会存储一份并以指针形式代替另一份。” Marks在其演讲中指出Windows Server 8和Hyper-V 3.0为在Microsoft的NT文件系统(NTFS)中存储的数据提供重复数据删除功能。

他指出重复的数据块(在……

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

电子邮件地址不会被公开。 必填项已用*标注

敬请读者发表评论,本站保留删除与本文无关和不雅评论的权力。

在本篇存储决策者大会演讲中,Network Are Our Lives公司的首席科学家Howard Marks介绍了微软Hyper-V 3.0中的重复数据删除功能是如何工作的。

“绝大多数的重复数据删除系统中最基本的一项功能是将数据分割成多个数据块,通过哈希算法辨识出哪些数据块是相似的,然后通过一个个字节的比较找出数据完全相似的部分。如果证实两个数据块包含相同的数据,系统中只会存储一份并以指针形式代替另一份。”

Marks在其演讲中指出Windows Server 8和Hyper-V 3.0为在Microsoft的NT文件系统(NTFS)中存储的数据提供重复数据删除功能。他指出重复的数据块(在32KB到128KB大小之间)保存在系统卷标信息中,并根据RAM和网络I/O中类似的数据进行裁剪。

他同时指出现有的重复数据删除有两种基本类型:内联型的会实时判定一段数据是否重复;而后置型,会在一定的时间间隔后对数据进行处理。他表示微软选择了后置型的重复数据删除技术。

“假设你有150个同时运行Apache的Web服务器,就当是我们要开设一项如何部署Web服务器的课程吧,这使得数据空间压缩到1.3台服务器的存储量,你可以节省大量空间,”Marks同时提到,“假如重复数据删除可以保持在整个磁盘阵列的闪存中,这种方式同样也提升了系统性能。”

作者

Howard Marks
Howard Marks

DeepStorage.net的创始人兼首席研究员。

相关推荐

  • 简单可靠的平面备份技术

    在过去,很少有人认为平面数据备份可以成为传统备份方式的靠谱的替代者。而到了现在,随着快照技术的不断增强,趋势正在改变。

  • 专家答疑:重复数据删除在云中是如何工作的?

    重复数据删除过程减少了存储系统中的数据量,但云中的重复数据删除可能比客户对云提供者更有价值。

  • 全闪数据中心的数据缩减攻略

    全闪存数据中心的概念之所以很吸引人,是因为它可以消除耗时的系统调优。它使数据中心得以支持最大的虚拟机密度,它的存储响应时间让大多数应用程序提供者都感到满意。

  • 存储采购并非易事

    硬盘市场的下滑并没有带来相应的固态存储市场的蓬勃发展,但固态存储将最终取代机械硬盘,在这一路上也会不断有惊喜。