检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:汪浩 李军辉[1] 贡正仙[1] WANG Hao;LI Junhui;GONG Zhengxian(School of Comiputcr Science and Technology,Soochow University,Suzhou,Jiangsu 215006,China)
机构地区:[1]苏州大学计算机科学与技术学院,江苏苏州215006
出 处:《中文信息学报》2023年第8期25-33,共9页Journal of Chinese Information Processing
摘 要:在汉语等其他有省略代词习惯的语言中,通常会省略可从上下文信息推断出的代词。尽管以Transformer为代表的的神经机器翻译模型取得了巨大的成功,但这种代词省略现象依旧使神经机器翻译模型面临很大的挑战。该文在Transformer模型基础上提出了一个融合零指代识别的翻译模型,并引入篇章上下文来丰富指代信息。具体地,该模型采用联合学习的框架,在翻译模型基础上,联合了一个分类任务,即判别句子中省略代词在句子所表示的成分,使得模型能够融合零指代信息辅助翻译。通过在中英对话数据集上的实验,验证了该文所提出方法的有效性,与基准模型相比,翻译性能提升了1.48个BLEU值。Pronouns are usually omitted if it can be inferred from context in such pro-drop languages as Chinese,which poses a significant challenge for NMT.This paper proposes a model to capture zero pronoun information based on Transformer,introducing the context to enrich anaphora information.It adopts the framework of joint learning,employing a classification task to identify the omitted component of the sentence to help translation optimization.Experiments on a Chinese-English dialogue dataset prove the proposed method achieves an improvement of 1.48 BLEU compared with the benchmark model.
分 类 号:TP391[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.112