视觉对抗样本生成技术概述  被引量:5

A Brief Introduction to Visual Adversarial Samples

在线阅读下载全文

作  者:王伟[1] 董晶[1] 何子文 孙哲南[1] WANG Wei;DONG Jing;HE Ziwen;SUN Zhenan(Center for Research on Intelligent Perception and Computing,Institute of Automation,Chinese Academy of Sciences,Beijing 100190,China;University of Chinese Academy of Sciences,Beijing 100049,China)

机构地区:[1]中国科学院自动化研究所智能感知与计算研究中心,北京100190 [2]中国科学院大学,北京100049

出  处:《信息安全学报》2020年第2期39-48,共10页Journal of Cyber Security

基  金:国家自然科学基金61972395、U1736119、61772529资助。

摘  要:深度学习的发明,使得人工智能技术迎来了新的机遇,再次进入了蓬勃发展期。其涉及到的隐私、安全、伦理等问题也日益受到了人们的广泛关注。以对抗样本生成为代表的新技术,直接将人工智能、特别是深度学习模型的脆弱性展示到了人们面前,使得人工智能技术在应用落地时,必须要重视此类问题。本文通过对抗样本生成技术的回顾,从信号层、内容层以及语义层三个层面,白盒攻击与黑盒攻击两个角度,简要介绍了对抗样本生成技术,目的是希望读者能够更好地发现对抗样本的本质,对机器学习模型的健壮性、安全性和可解释性研究有所启发。With the invention of deep learning,artificial intelligence(AI)has ushered in new opportunities and is booming again.However,its privacy,security,ethics and other issues involved are also increasingly concerned by people.The adversarial samples,the vulnerability of artificial intelligence,especially deep learning models,are directly in front of us in recent years,which makes it necessary to pay attention to such problems during the practical application of AI technology.In this paper,a brief review of adversarial sample generation under white-box and black-box attack protocols is given.We summarize related techniques into three levels:signal level,content level and semantic level.We hope this paper can help readers better find the nature of the adversarial sample,which may improve the robustness,security and interpretability of the learned model.

关 键 词:人工智能安全 对抗样本 白盒攻击 黑盒攻击 失真度量 对抗防御 

分 类 号:TP301[自动化与计算机技术—计算机系统结构]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象