基于极值点分块的重复数据检测算法  

A Duplicate Data Detection Algorithm based on Extremum Defined Chunking

在线阅读下载全文

作  者:谢垂益[1] 卿斯汉[2] 

机构地区:[1]韶关学院数学与信息科学学院,广东韶关512005 [2]中国科学院软件研究所,北京100190

出  处:《信息网络安全》2013年第8期10-12,共3页Netinfo Security

基  金:国家自然科学基金[60970135;61170282];韶关市创新资金项目[201210];韶关学院科研项目[201202]

摘  要:重复数据检测技术能够大幅降低数据中心的存储量,节省网络带宽,减少建设和运维成本。为了克服基于内容分块(CDC)方法容易出现超长块的缺点,文章提出了基于极值点分块(EDC)的重复数据检测算法。EDC算法先计算出所有右边界在数据块上下限范围内的滑动窗口中数据的指纹,找出最后一个指纹极值,所对应的滑动窗口结束位置作为数据块的分界点,再计算该数据块的哈希值并判断是否重复块。实验结果表明,EDC算法的重复数据检测率、磁盘利用率分别是CDC算法的1.48倍和1.12倍,改进效果显著。The duplicate data detection technology can significantly reduce the duplication of data in data centers, save network bandwidth, decrease the cost of construction and maintenance. A duplicate data detection algorithm based on Extremum Defined Chunking(EDC) is proposed to overcome the long segment problem of Content Defined Chunking(CDC) method. The EDC algorithm first calculates all fingerprints of the sliding windows that their boundary are within the upper and lower limits of data blocks. The last extremum of all fingerprints is found out, the corresponding end position of the sliding window become the cut-off point of data block. Then the hash value of the data block is calculated to determine whether it is duplicate block. The experimental results show that ECD algorithm, duplicated data detection rate, disk utilization rate is respectively 1.48 times, 1.12 times of CDC algorithm, the effect is significantly notable.

关 键 词:重复数据检测 基于内容分块 基于极值点分块 指纹 

分 类 号:TP308[自动化与计算机技术—计算机系统结构] TP274[自动化与计算机技术—计算机科学与技术]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象