Al models make stuff up.How can hallucinations be controlled?  

在线阅读下载全文

作  者: 

机构地区:[1]The Economist

出  处:《中国战略新兴产业》2024年第4期67-67,共1页China Strategic Emerging Industry

摘  要:对大型语言模型(LLM)的帮助请求,可能很快就会得到自信、连贯和完全错误的响应。在人工智能模型中,这种倾向通常被描述为“幻觉”,这使人们很难在现实世界中完全依赖人工智能系统。但让模型产生幻觉的能力,同时也是让它们如此有用的原因。大型语言模型是“生成式”人工智能的一种形式,从字面上看,这意味着他们编造一些东西来解决新问题。它们是通过为字符或符号块生成概率分布来做到这一点的。It is an increasingly familiar experience.A request for help to a large language model(LLM)such as OpenAI's ChatGPT is promptly met by a response that is confident,coherent and just plain wrong.In an ai model,such tendencies are usually described as hallucinations.A more informal word exists,however:these are the qualities of a great bullshitter.

关 键 词:人工智能系统 语言模型 概率分布 人工智能模型 生成式 

分 类 号:TP3[自动化与计算机技术—计算机科学与技术]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象