当大型语言模型收缩时  

在线阅读下载全文

作  者:Edd Gent 

机构地区:[1]不详

出  处:《科技纵览》2023年第7期12-13,共2页IEEE Spectrum

摘  要:虽然建立更大的语言模型带来了性能上的突破性飞跃,但这也将前沿人工智能推到一种无人可及的境地,只有资源最充足的人工智能实验室可以一展拳脚。例如,尽管OpenAI守口如瓶,但有人猜测,其最新的GPT-4大型语言模型(简称为LLM)的参数多达1万亿个,远远超过大多数进行训练或运行的公司或研究小组所拥有的计算资源。

关 键 词:人工智能 语言模型 实验室 守口如瓶 计算资源 

分 类 号:G63[文化科学—教育学]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象