检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:熊士婷 张玉金 吴飞[1] 刘婷婷[1] XIONG Shi-ting;ZHANG Yu-jin;WU fei;LIU Ting-ting(School of Electronic and Electrical Engineering,Shanghai University of Engineering Science,201620,China;Shanghai Key Laboratory of Integrated Administration Technologies for Information Security,Shanghai Jiao Tong University,Shanghai 200240,China)
机构地区:[1]上海工程技术大学,电子电气工程学院,上海201620 [2]上海交通大学上海市信息安全综合管理技术研究重点实验室,上海200240
出 处:《光电子.激光》2020年第2期214-221,共8页Journal of Optoelectronics·Laser
基 金:上海市科委重点项目(18511101600);上海市自然科学基金项目(17ZR1411900);上海市信息安全综合管理技术研究重点实验室项目(AGK2015006);上海高校青年教师培养资助计划项目(ZZGCD 15090);上海工程技术大学科研启动项目(2016-56);上海市科委重点项目(18511101600);上海工程技术大学研究生创新项目(18KY0208)。
摘 要:图像拼接是最常用的图像篡改操作之一,针对篡改图像噪声水平不一致性的现象,本文提出了一种基于统计噪声水平分析的图像拼接检测方法。首先,将检测图像分割成大小相同的非重叠图像块,然后,利用一种非参数估计算法来估计每个图像块的噪声值,并且采取聚类法对图像块的噪声值进行聚类,聚类结果分为可疑部分和非可疑部分两大类。最后,通过一个由粗到细的两阶段策略对篡改区域进行定位。哥伦比亚未压缩图像拼接检测评估图像库的实验结果表明,本文方法能够准确地估计图像块的噪声和定位出拼接区域,性能优于现有方法。Image splicing is one of the most commonly used image tampering operations.In this paper,we propose an effective image splicing detection method based on image noise level inconsistency.First,the suspicious image is divided into non-overlapping blocks.Then,the noise value of each image block is estimated by a new nonparametric algorithm.The method of clustering was used to classify according to the noise value and the clustering result was divided into two categories:suspicious part and non-suspicious part.Finally,the two-stage strategy from coarse to fine further locate the tampering area.Experimental results over Colombian Uncompressed Image Splicing Detection Evaluation Dataset demonstrate that the proposed method can detect and locate the tampered regions more accurately than state-of-the-arts investigated.
关 键 词:图像取证 篡改探测 噪声水平估计 拼接定位 聚类
分 类 号:TP391.9[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.7