人工智能红队测试为何会出错  

在线阅读下载全文

作  者:Natasha Bajema 

机构地区:[1]不详

出  处:《科技纵览》2024年第5期7-9,4,共4页IEEE Spectrum

摘  要:一种对抗性的网络安全工具被过度用于保护人工智能安全。2024年2月,OpenAl宣布推出Sora,这是一款令人惊叹的“文本转视频”工具。只需要输入一个提示,Sora就能够在几秒钟内生成一段逼真的视频。不过,该工具并未立即向公众开放。据报道,推迟的部分原因是,该公司称OpenAl有一支名为“红队”的专家团队,他们将深入调查该模型,了解其处理深度伪造视频、错误信息、偏见和仇恨内容的能力。

关 键 词:人工智能 OPEN 网络安全工具 错误信息 专家团队 处理深度 视频 对抗性 

分 类 号:TP3[自动化与计算机技术—计算机科学与技术]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象