警惕大模型泄密  

在线阅读下载全文

作  者:郑雪 

机构地区:[1]不详

出  处:《中国经济周刊》2025年第6期74-75,共2页China Economic Weekly

摘  要:如果要求ChatGPT持续输出一个单词,会怎么样?大模型在重复这个单词一定次数之后就会“发疯”,甚至开始输出某些个人隐私信息。这是谷歌DeepMind、华盛顿大学、康奈尔大学等研究人员在2023年发表的一篇论文中介绍的案例。当然这个漏洞现在已经修复,但AI发展过程中面临的安全问题仍不容小觑。

关 键 词:个人隐私信息 谷歌 康奈尔大学 华盛顿大学 泄密 CHAT 漏洞 AI 

分 类 号:TP3[自动化与计算机技术—计算机科学与技术]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象