基于ALBERT预训练模型生成式文本摘要  被引量:1

Pretraining based on ALBERT model for abstract text summarization

在线阅读下载全文

作  者:许文军 郑虹[1] 郑肇谦 XU Wenjun;ZHENG Hong;ZHENG Zhaoqian(School of Computer Science&Engineering,Changchun University of Technology,Changchun 130102,China)

机构地区:[1]长春工业大学计算机科学与工程学院,吉林长春130102

出  处:《长春工业大学学报》2022年第6期719-725,共7页Journal of Changchun University of Technology

基  金:吉林省教育厅项目(JJKH20200677KJ)。

摘  要:针对如何生成更高质量的文本摘要提出一种基于预训练的编码器-解码器框架。该框架可以根据输入序列分两阶段生成输出序列。对于模型的编码器,使用ALBERT将输入序列编码为上下文表示。解码器在第一阶段使用一个基于Transformer的解码器来生成一个草稿输出序列;第二阶段对草稿序列中每个词进行掩码,并将其输入到ALBERT中,然后通过结合输入序列和ALBERT生成的草稿表示,使用基于Transformer的解码器来预测每一个掩码位置的词。在ROUGE上评估了此模型。模型生成的摘要解决了生成摘要不自然的问题,并在LCSTS上取得了很好的效果。An encoder-decoder framework based on pretraining is proposed to generate higher quality text summaries.The framework can generate output sequence from input sequence in two stages.For the encoder of the model,use ALBERT to encode the input sequence as a context representation.For the decoder,in the first phase,a Transformer based decoder is used to generate a draft output sequence.In the second phase,each word in the draft sequence is masked and entered into ALBERT,then the words at each mask position are predicted using a Transformer based decoder by combining the input sequence with the draft representation generated by ALBERT.This model was evaluated on ROUGE.Abstract generated by model solves the problem of unnatural abstract generation and achieves good results in LCSTS.

关 键 词:预训练 生成式 文本生成 

分 类 号:TP391.9[自动化与计算机技术—计算机应用技术]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象