检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:周孟佳 李霏 姬东鸿[1] ZHOU Mengjia;LI Fei;JI Donghong(School of Cyber Science and Engineering,Wuhan University,Wuhan,Hubei 430072,China)
机构地区:[1]武汉大学国家网络安全学院,湖北武汉430072
出 处:《中文信息学报》2024年第1期97-106,共10页Journal of Chinese Information Processing
基 金:国家自然科学基金(61772378);国家重点研究与发展项目(2017YFC1200500);教育部研究基金(18JZD015)。
摘 要:与传统的关系抽取任务相比,对话级关系抽取任务具有语言随意、信息密度低、人称代词丰富的特点。基于此,该文提出了一种基于注意力和同指信息的对话级关系抽取模型。模型采用TOD-BERT(Task-Oriented Dialogue BERT)和BERT预训练语言模型增强对话文本表示,通过注意力机制建模词与各种关系之间的相互影响,使模型能更多地关注有益信息。另外,该文提出的模型还融合了与人称代词相关的同指信息以丰富实体的表示。作者在对话级关系抽取数据集DialogRE上验证所提出模型的性能。结果表明,该模型在DialogRE测试集上的F1值达到了63.77%,较之于多个基线模型有明显提升。The dialog-level relation extraction is characterized by casual language,low information density and abundant personal pronouns.This paper proposes an end-to-end dialogue relation extraction model via TOD-BERT(Task-Oriented Dialogue BERT)pre-trained language model.It adopts the attention mechanism to capture the interaction between different words and different relations.Besides,the co-reference information related to personal pronouns is applied to enrich the entity features.Validated on DialogRE,a new dialog-level relational extraction dataset,the proposed model reaches 63.77 F 1 score,which is significantly better than the baseline models.
分 类 号:TP391[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.28