检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:冯宇涛 强继朋 李云[1] 袁运浩[1] 朱毅 FENG Yutao;QIANG Jipeng;LI Yun;YUAN Yunhao;ZHU Yi(School of Information Engineering,Yangzhou University,Yangzhou 225127,China)
出 处:《扬州大学学报(自然科学版)》2023年第3期56-60,共5页Journal of Yangzhou University:Natural Science Edition
基 金:国家自然科学基金资助项目(62076217,61906060);扬州大学“青蓝工程”资助项目。
摘 要:为了提高预训练模型在文本可读性分类中的表现,提出基于预训练模型BERT(bidirectional encoder representations from transformers)和GPT2(generative pre-training 2)的prompt文本可读性分类方法,通过手工模板和映射器将文本可读性分类转换为与模型预训练任务一致的文本填空形式,以此提高预训练模型的分类性能.实验表明,prompt方法在实验数据集上与传统机器学习和有监督的神经网络相比具有更好的分类性能.In order to improve the performance of the pre-trained models in text readability classification,this paper proposes a prompt text readability classification method based on the pre-trained models BERT(bidirectional encoder representations from transformers)and GPT2(generative pretraining 2).This method converts text readability classification into text filling form consistent with model pre-training task by manual template and verbalizer,so as to improve the classification performance of pre-training model.Experiments show that the prompt methods achieve better classification performance on the experiment datasets than traditional machine learning and supervised neural networks.
分 类 号:TP391.12[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.39