基于注意力与同指信息的对话级关系抽取  

Dialogue-level Relation Extraction Based on Attention and Coreference

在线阅读下载全文

作  者:周孟佳 李霏 姬东鸿[1] ZHOU Mengjia;LI Fei;JI Donghong(School of Cyber Science and Engineering,Wuhan University,Wuhan,Hubei 430072,China)

机构地区:[1]武汉大学国家网络安全学院,湖北武汉430072

出  处:《中文信息学报》2024年第1期97-106,共10页Journal of Chinese Information Processing

基  金:国家自然科学基金(61772378);国家重点研究与发展项目(2017YFC1200500);教育部研究基金(18JZD015)。

摘  要:与传统的关系抽取任务相比,对话级关系抽取任务具有语言随意、信息密度低、人称代词丰富的特点。基于此,该文提出了一种基于注意力和同指信息的对话级关系抽取模型。模型采用TOD-BERT(Task-Oriented Dialogue BERT)和BERT预训练语言模型增强对话文本表示,通过注意力机制建模词与各种关系之间的相互影响,使模型能更多地关注有益信息。另外,该文提出的模型还融合了与人称代词相关的同指信息以丰富实体的表示。作者在对话级关系抽取数据集DialogRE上验证所提出模型的性能。结果表明,该模型在DialogRE测试集上的F1值达到了63.77%,较之于多个基线模型有明显提升。The dialog-level relation extraction is characterized by casual language,low information density and abundant personal pronouns.This paper proposes an end-to-end dialogue relation extraction model via TOD-BERT(Task-Oriented Dialogue BERT)pre-trained language model.It adopts the attention mechanism to capture the interaction between different words and different relations.Besides,the co-reference information related to personal pronouns is applied to enrich the entity features.Validated on DialogRE,a new dialog-level relational extraction dataset,the proposed model reaches 63.77 F 1 score,which is significantly better than the baseline models.

关 键 词:关系抽取 注意力机制 同指信息 对话 

分 类 号:TP391[自动化与计算机技术—计算机应用技术]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象