研究发现,在压力之下AI也会欺骗人类  

在线阅读下载全文

出  处:《中国总会计师》2023年第12期183-183,共1页China Chief Financial Officer

摘  要:大型语言模型(LLM)作为新一代人工智能工具,如今已广泛应用于各行各业,辅助工程师和普通用户完成各种任务。然而,评估这些工具的安全性和可靠性也变得至关重要,这将有助于更好地规范其使用。最近,旨在评估人工智能系统安全性的Apollo Research组织开展了一项研究,评估大型语言模型(LLM)在面临压力时做出的反应。他们的研究成果令人震惊地指出,这些模型(其中最著名的包括OpenAI的ChatGPT)在某些情况下可能会故意欺骗用户。

关 键 词:人工智能系统 语言模型 APOLLO Open AI 欺骗 普通用户 CHAT 

分 类 号:TP18[自动化与计算机技术—控制理论与控制工程]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象