检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:许文军 郑虹[1] 郑肇谦 XU Wenjun;ZHENG Hong;ZHENG Zhaoqian(School of Computer Science&Engineering,Changchun University of Technology,Changchun 130102,China)
机构地区:[1]长春工业大学计算机科学与工程学院,吉林长春130102
出 处:《长春工业大学学报》2022年第6期719-725,共7页Journal of Changchun University of Technology
基 金:吉林省教育厅项目(JJKH20200677KJ)。
摘 要:针对如何生成更高质量的文本摘要提出一种基于预训练的编码器-解码器框架。该框架可以根据输入序列分两阶段生成输出序列。对于模型的编码器,使用ALBERT将输入序列编码为上下文表示。解码器在第一阶段使用一个基于Transformer的解码器来生成一个草稿输出序列;第二阶段对草稿序列中每个词进行掩码,并将其输入到ALBERT中,然后通过结合输入序列和ALBERT生成的草稿表示,使用基于Transformer的解码器来预测每一个掩码位置的词。在ROUGE上评估了此模型。模型生成的摘要解决了生成摘要不自然的问题,并在LCSTS上取得了很好的效果。An encoder-decoder framework based on pretraining is proposed to generate higher quality text summaries.The framework can generate output sequence from input sequence in two stages.For the encoder of the model,use ALBERT to encode the input sequence as a context representation.For the decoder,in the first phase,a Transformer based decoder is used to generate a draft output sequence.In the second phase,each word in the draft sequence is masked and entered into ALBERT,then the words at each mask position are predicted using a Transformer based decoder by combining the input sequence with the draft representation generated by ALBERT.This model was evaluated on ROUGE.Abstract generated by model solves the problem of unnatural abstract generation and achieves good results in LCSTS.
分 类 号:TP391.9[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.38