检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:李大舟 于沛 高巍 马辉 LI Da-zhou;YU Pei;GAO Wei;MA Hui(School of Computer Science and Technology,Shenyang University of Chemical Technology,Shenyang 110142,China)
机构地区:[1]沈阳化工大学计算机科学与技术学院,辽宁沈阳110142
出 处:《计算机工程与设计》2021年第3期696-702,共7页Computer Engineering and Design
基 金:辽宁省教育厅科学技术研究基金项目(L2016011);辽宁省教育厅科学研究基金项目(LQ2017008);辽宁省博士启动基金项目(201601196)。
摘 要:传统生成式模型中存在的梯度经过多次传播后,倾向于消失或爆炸,且存在语言理解不充分的性能缺陷,为此提出一种生成式自动文本摘要方法(BiGRUAtten-LSTM)。编码器端将原始文本输入到编码器并结合双向门控循环单元生成固定长度的语义向量,使用注意力机制分配每个输入词的权重来减少输入序列信息的细节损失。解码器端使用LSTM网络,融合先验知识和集束搜索方法将语义向量解码生成目标文本摘要。通过工业新闻数据集的实验验证,与传统的生成式文本摘要模型相比,ROUGE-1指标提高0.026、ROUGE-2指标提高0.056、ROUGE-L指标提高0.025。A method of generating automatic text summarization was proposed to solve the problem of the gradient in the traditional generative model which tended to disappear or explode after propagation(BiGRUAtten-LSTM).The encoder inputted the original text to the encoder and generated the semantic vector of fixed length by combining BiGRU.Attention mechanism was used to assign the weight of each input word to reduce the detail loss of input sequence information.The decoder used LSTM network,the prior knowledge and the beam search method were combined to decode the semantic vector to generate the target text abstract.Through the experimental verification of the industrial news data set,compared with the traditional generated text summary model,ROUGE-1 is increased by 0.026,ROUGE-2 is increased by 0.056,ROUGE-L is increased by 0.025.
关 键 词:生成式文本摘要 编解码器 双向门控循环单元 注意力机制 长短时记忆 集束搜索
分 类 号:TP391.1[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.15