检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:王伟[1] 董晶[1] 何子文 孙哲南[1] WANG Wei;DONG Jing;HE Ziwen;SUN Zhenan(Center for Research on Intelligent Perception and Computing,Institute of Automation,Chinese Academy of Sciences,Beijing 100190,China;University of Chinese Academy of Sciences,Beijing 100049,China)
机构地区:[1]中国科学院自动化研究所智能感知与计算研究中心,北京100190 [2]中国科学院大学,北京100049
出 处:《信息安全学报》2020年第2期39-48,共10页Journal of Cyber Security
基 金:国家自然科学基金61972395、U1736119、61772529资助。
摘 要:深度学习的发明,使得人工智能技术迎来了新的机遇,再次进入了蓬勃发展期。其涉及到的隐私、安全、伦理等问题也日益受到了人们的广泛关注。以对抗样本生成为代表的新技术,直接将人工智能、特别是深度学习模型的脆弱性展示到了人们面前,使得人工智能技术在应用落地时,必须要重视此类问题。本文通过对抗样本生成技术的回顾,从信号层、内容层以及语义层三个层面,白盒攻击与黑盒攻击两个角度,简要介绍了对抗样本生成技术,目的是希望读者能够更好地发现对抗样本的本质,对机器学习模型的健壮性、安全性和可解释性研究有所启发。With the invention of deep learning,artificial intelligence(AI)has ushered in new opportunities and is booming again.However,its privacy,security,ethics and other issues involved are also increasingly concerned by people.The adversarial samples,the vulnerability of artificial intelligence,especially deep learning models,are directly in front of us in recent years,which makes it necessary to pay attention to such problems during the practical application of AI technology.In this paper,a brief review of adversarial sample generation under white-box and black-box attack protocols is given.We summarize related techniques into three levels:signal level,content level and semantic level.We hope this paper can help readers better find the nature of the adversarial sample,which may improve the robustness,security and interpretability of the learned model.
关 键 词:人工智能安全 对抗样本 白盒攻击 黑盒攻击 失真度量 对抗防御
分 类 号:TP301[自动化与计算机技术—计算机系统结构]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.38