检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:张钦彤 王昱超 王鹤羲 王俊鑫 陈海[1] ZHANG Qintong;WANG Yuchao;WANG Hexi;WANG Junxin;CHEN Hai(School of Arts and Sciences,Beijing Normal University at Zhuhai,Zhuhai,Guangdong 519087,China)
机构地区:[1]北京师范大学珠海校区文理学院,广东珠海519087
出 处:《计算机工程与应用》2024年第17期17-33,共17页Computer Engineering and Applications
基 金:广东省教育科学规划课题(2022GXJK417);认知智能全国重点实验室智能教育开放课题(iED2023-005)。
摘 要:大型语言模型的崛起是深度学习领域的全新里程碑,而微调技术在优化模型性能方面的起到了关键作用。对大型语言模型微调技术进行了全面的综述,回顾了语言模型的统计语言模型、神经网络语言模型、预训练语言模型和大语言模型四个阶段的发展历程和微调技术的基本概念,从经典参数微调、高效参数微调、提示微调和强化学习微调方法四大部分,探讨总结了各微调技术的原理与发展,并进行了一定的对比分析。最后,总结了当前微调技术的研究状况与发展重点,强调了该领域的潜在研究价值,并展望了未来的发展方向。The rise of large-scale language models signifies a new milestone in the field of deep learning,with fine-tuning techniques playing a crucial role in optimizing model performance.This paper provides a comprehensive overview of fine tuning techniques for large-scale language models.It reviews the development stages of language models,including statis-tical language models,neural network language models,pre-trained language models,and large language models.The basic concepts of fine-tuning are explored,covering classic fine-tuning,efficient parameter fine-tuning,prompt tuning,and reinforcement learning fine-tuning.The paper delves into the principles and development of each fine-tuning tech-nique,offering a comparative analysis across these four major categories.In conclusion,the paper summarizes the current state of research on fine-tuning techniques and underscores the potential research value in this domain,providing insights into future directions of development.
分 类 号:TP18[自动化与计算机技术—控制理论与控制工程]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:18.218.124.105