检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:赵旭 苏依拉[1] 仁庆道尔吉[1] 石宝 ZHAO Xu;SU Yila;RENQING Dao’erji;SHI Bao(College of Information Engineering,Inner Mongolia University of Technology,Hohhot 010080,China)
机构地区:[1]内蒙古工业大学信息工程学院,呼和浩特010080
出 处:《计算机工程与应用》2022年第12期310-316,共7页Computer Engineering and Applications
基 金:国家自然科学基金(61966028,61966027)。
摘 要:当前大多数机器翻译模型都属于自回归模型,不支持解码器并行生成翻译结果,且生成速率过低。针对当前自回归模型中存在的问题,基于Transformer和非自回归Transformer(non-autoregressive Transformer,NAT)的翻译模型进行实验,对蒙汉语料进行知识蒸馏和语跨语言词语嵌入的处理。实验结果表明,引入知识蒸馏的NAT模型在BLEU值方面有显著提升,同时也提高了模型生成速率。NAT模型进行知识蒸馏与跨语言词嵌入处理后能显著减少源语言和目标语言之间的依赖关系,提高蒙汉机器翻译的BLEU值,相比Transformer模型,BLEU值提高了2.8,时间消耗减少了19.34 h。Most machine translation models are autoregressive models.To solve the problems existing in the autoregressive models,this paper conducts knowledge distillation and cross-language word embedding on corpus,on the translation models of Transformer and non-autoregressive Transformer.Experimental results show that non-autoregressive Transformer models with knowledge distillation achieve significant improvements in terms of BLEU and improve the generation rate.Experimental results show that knowledge distillation can significantly reduce the dependence between source and target language and improve the BLEU of Mongolian-Chinese machine translation,compared to Transformer models,BLEU values are improved by 2.8 and time consumption is reduced by 19.34 hours.
关 键 词:Transformer模型 NAT模型 知识蒸馏 跨语言词嵌入
分 类 号:TP391.2[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.68