检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
出 处:《信息网络安全》2024年第4期654-654,共1页Netinfo Security
摘 要:近日,第45届IEEE安全与隐私国际学术会议(IEEE Symposium on Security and Privacy,IEEE S&P 2024)录用结果揭晓,华中科技大学2023级博士生周子淇(导师姚德中副教授)的论文“Securely Fine-tuning Pre-trained Encoders Against Adversarial Examples”被录用。随着自监督学习的发展,预训练模型已成为深度学习领域的主要解决方案。预训练模型具备强大的特征提取能力,使得下游用户通过简单的微调就能轻松完成各种复杂的任务。然而,最近的研究揭示了预训练编码器在面对下游无关对抗样本(Downstream-agnostic Adversarial Examples,DAEs)时的脆弱性。如何在预训练编码器公开可获得的情况下增强下游模型对DAEs的鲁棒性,仍然是一个困难且未解决的问题。因此,该论文首先探讨了预训练范式下现有防御机制抵御下游无关对抗样本的局限性。鉴于现有防御机制的不足,论文提出了一种基于生物遗传进化思想的双阶段对抗性微调方法Gen-AF,以增强下游模型的鲁棒性。论文在10种自监督训练方法和6个数据集上进行了大量实验,证明了Gen-AF能够有效抵御最先进的DAEs,平均正确识别率达到75%以上。
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.254