检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:曹智泉 穆永誉 肖桐 李北 张春良 朱靖波 CAO Zhiquan;MU Yongyu;XIAO Tong;LI Bei;ZHANG Chunliang;ZHU Jingbo(NLP Laboratory,Northeastern University,Shenyang,Liaoning 110819,China)
机构地区:[1]东北大学自然语言处理实验室,辽宁沈阳110819
出 处:《中文信息学报》2024年第6期1-23,共23页Journal of Chinese Information Processing
基 金:国家自然科学基金(62276056);科技部科技创新2030—“新一代人工智能”重大项目(2020AAA0107904);云南省科技厅科技计划项目(202103AA080015);中央高校基本科研业务费项目(N2216016,N2216001,N2216002);111引智基地(B16009)。
摘 要:神经机器翻译(NMT)模型通常使用双语数据进行监督训练,而构建大规模双语数据集是一个巨大挑战。相比之下,大部分语言的单语数据集较为容易获取。近年来,预训练模型(PTM)能够在海量的单语数据上进行训练,从而得到通用表示知识,来帮助下游任务取得显著的性能提升。目前基于预训练的神经机器翻译(PTNMT)在受限资源数据集上已被广泛验证,但如何高效地在高资源NMT模型中利用PTM仍亟待研究。该文致力于对PTNMT的现状和相关问题进行系统性的整理和分析,从引入PTM的预训练方法、使用策略以及特定任务等角度对PTNMT方法进行详细的分类,并对PTNMT方法解决的问题进行总结,最后对PTNMT的研究进行展望。Neural machine translation(NMT)models are usually trained using bilingual data.Building large-scale bilingual datasets is a huge challenge.In contrast,large-scale monolingual datasets for most languages are easier to construct.Pre-trained models(PTM)proposed in recent years can be trained on massive monolingual data.The generic representation of knowledge learned through pre-training helps achieve significant performance gains in downstream tasks.Currently pre-trained neural machine translation(PTNMT)has been extensively validated on resource-constrained datasets,but how to efficiently utilize PTM on high-resource NMT remains to be discussed.This paper focuses on reviewing and analyzing the current state and related problems of PTNMT,classifing PTNMT methods in terms of PTM's pre-trained methods,strategies,or specific tasks.We summarize the problems solved by PTNMT's methods,and conclude with a future outlook on PTNMT research.
分 类 号:TP391[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:18.222.135.39