基于混合模型的机器翻译优化方法  

在线阅读下载全文

作  者:张乐 荆晓远 孙其航 ZHANG Le;JING Xiaoyuan;SUN Qihang

机构地区:[1]吉林化工学院信息与控制工程学院,吉林吉林132022 [2]广东石油化工学院计算机学院,广东茂名525000

出  处:《信息技术与信息化》2025年第2期46-49,共4页Information Technology and Informatization

基  金:国家自然科学基金项目“基于类不平衡深度特征学习的石化动设备故障信号分类研究”(62176069)。

摘  要:预训练语言模型通过学习大量文本数据中的语言模式和结构,展现出对自然语言任务的通用处理能力。通常,为了机器翻译任务而专门训练预训练模型,需要耗费大量的计算资源。为了解决这一问题,文章提出了一种新的混合模型,该模型将BERT、ROBERTA、ELECTRA和LUKE等预训练模型与Marian神经机器翻译模型相结合。该方法的目的是利用其他领域的预训练模型与机器翻译模型相结合,以低成本构建新的预训练机器翻译模型。实验结果表明,混合模型在多个语言数据集上比直接使用Marian模型进行微调BLEU值平均提升5.53,最高提升了16.05。结果显示,结合预训练模型和Marian,以低成本构建混合模型,可以有效提升机器翻译性能。

关 键 词:自然语言处理 预训练模型 混合模型 机器翻译 

分 类 号:TP391.2[自动化与计算机技术—计算机应用技术]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象