检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:蒋彦廷 胡韧奋[1] Jiang Yanting;Hu Renfen
机构地区:[1]北京师范大学中文信息处理研究所,北京海淀100875
出 处:《新世纪图书馆》2020年第9期38-44,共7页New Century Library
基 金:国家社科基金青年项目“面向汉语国际教育的智能测试技术研究”(项目编号:18CYY029)研究成果之一。
摘 要:中文图书细粒度多标签分类的自动化,有利于促进图书的检索与学科的沟通。文章充分发挥BERT语言模型的微调特性,提出一种通过21类粗粒度分类微调语言模型,学习到更好的图书表示,进而实现细粒度分类的新策略。结果显示,在单标签的分类任务上,BERT模型的正确率分别较LSTM与Fasttext模型提升约4.9%与2.0%。KNN-ML对257类的细粒度多标签分类证明了前期微调的有效性。最佳情况下,有75.82%的图书细粒度类别恰好全部预测正确,92.10%的图书至少被正确预测了一个细粒度类别。因此可以得出结论,该系统有助于实现图书自动的细粒度归类,并帮助图书标引者补充合理的分类号。The automation of the fine-grained multi-label classification of Chinese books is beneficial to the book index and subject communication.This paper makes full use of fine-tuning of BERT model and puts forward a novel strategy which fine-tunes the model on the coarse-grained classification task to learn a better book representation,and then completes the multi-label classification.The result shows that on the single-label classification,the accuracy of BERT has increased by about 4.9%and 2.0%compared with LSTM and Fasttext.The classification result of KNNML indicates the effectiveness of fine-tuning.Under the best situation,75.82%of books are correctly sorted out,and 92.10%of books are predicted with at least one correct label.It draws a conclusion that this system is of great benefit to automatic fine-grained classification,and can help book annotators replenish the potential missing category code.
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.28