TFLS-BiGRU-ATT:一种简单有效的中文短文本关系抽取模型  

TFLS-BiGRU-ATT:A Simple but Effective Relation Extraction Model for Chinese Short Text

在线阅读下载全文

作  者:刘成星 张超群[1,2] 代林林 张龙昊 LIU Chengxing;ZHANG Chaoqun;DAI Linin;ZHANG Longhao(College of Artificial Intelligence,Guangxi Minzu University,Nanning,Guangxi 530006,China;Guangxi Key Laboratory of Hybrid Computation and 1C Design Analysis,Nanning,Guangxi 530006,China)

机构地区:[1]广西民族大学人工智能学院,广西南宁530006 [2]广西混杂计算与集成电路设计分析重点实验室,广西南宁530006

出  处:《中文信息学报》2023年第6期115-127,共13页Journal of Chinese Information Processing

基  金:国家自然科学基金(62062011);广西省自然科学基金(2019GXNSFAA185017)。

摘  要:关系抽取是信息抽取的核心任务,如何从海量的中文短文本中快速准确地抽取出重要的关系特征,成为中文短文本关系抽取任务的难点。针对这一问题,该文提出一种基于注意力机制的双向门控循环(Bidirectional Gated Recurrent Units,BiGRU)神经网络模型TFLS-BiGRU-ATT来对中文短文本中的关系特征进行抽取。首先,该模型使用所提出的文本定长选择(Text Fixed Length Selection,TFLS)策略对关系文本进行定长处理,然后利用双层BiGRU网络对定长文本进行关系特征提取,再通过所提出的注意力机制对关系特征进行权重的相应分配,最终对不同权重的特征信息进行实体间关系的抽取。基准实验的结果表明,TFLS-BiGRU-ATT模型在DuIE、COAE-2016-Task3、FinRE、SanWen四个具有不同特征的中文短文本数据集上获得的F1值分别达到93.62%、91.38%、49.35%、62.98%,显著优于对比模型。此外,还通过消融实验和定长选择实验进一步验证TFLS-BiGRUATT模型能够有效地提高中文短文本关系抽取的效果,说明该方法的可行性和有效性。Relation extraction is the core task of information extraction.To deal with relation extraction from massive Chinese short texts,a bidirectional gated recurrent units(BiGRU)neural network model based on attention mechanism(TFLS-BiGRU-ATT)is proposed.First,the TFLS-BiGRU-ATT model proposes Fixed Text Length Selection(TFLS)strategy to process the text length,and uses the two-layer BiGRU network to extract the relation features of in the fixed-length texts.Then,the attention mechanism is designed to assign weights to the relation features.Finally,the relationship between entities is extracted from the feature information with different weights.The experiments on DuIE,COAE-2016-Task3,FinRE and SanWen datasets show that the proposed method outperforms the competitors in terms of F_1 score,achieving 93.62%,91.38%,49.35%and 62.98%,respectively.

关 键 词:中文短文本 关系抽取 文本定长选择 双向门控循环神经网络 注意力机制 

分 类 号:TP391[自动化与计算机技术—计算机应用技术]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象