基于大模型的引文情感分类问题的研究  

A Research on Citation Sentiment Classification Based on Large Language Model

在线阅读下载全文

作  者:孔明辉 赵兰 

机构地区:[1]西南交通大学,计算机与人工智能学院,四川 成都 [2]吉利学院,盛宝金融科技学院,四川 成都

出  处:《计算机科学与应用》2025年第1期209-219,共11页Computer Science and Application

基  金:吉利学院“一院一品”教学改革项目(2024JG30253)。

摘  要:针对科学文献影响力排名研究领域中,需要对引文情感极性进行预测的问题,提出了将大语言模型的提示工程(零样本学习以及少样本学习)方法应用在引文情感分类中这一方案,分析当下热门大语言模型如Llama,Gpt-4o-Mini等以及基于Bert的深度学习模型在科学引文情感分类问题上的效果。首先通过基于大语言模型的提示工程方法预测引文情感极性,分析预测效果,再与基于Bert的深度学习模型在这一问题中的表现进行对比分析。实验结果表明,基于Bert的深度学习模型情感分类准确率在90%以上,最高可达94.31%,F1值均在80%以上;基于大语言模型的零样本学习和少样本学习方法分类效果与前者有明显差距,准确率最高可达84.70%,F1值最高仅可达63.65%。和基于Bert的深度学习模型分类效果相比,基于大语言模型的提示工程方法虽然在该任务中准确率受限,但其泛化能力较强,是一种简便且高效的方法,对于任务快速部署和应用非常有用。This paper proposes a method that applies prompt engineering (zero-shot and few-shot learning) from large language models (LLMs) to predict citation sentiment polarity in scientific literature impact ranking research. The study analyzes the performance of popular LLMs, such as Llama and GPT-4o-Mini, and BERT-based deep learning models in the task of scientific citation sentiment classification. The method uses prompt engineering with large language models to predict sentiment polarity. The results are compared with those of BERT-based deep learning models. Experimental results show that BERT-based models achieve sentiment classification accuracy over 90%, with a maximum of 94.31%, and F1 scores above 80%. The zero-shot and few-shot learning methods based on large language models have a significant performance gap. Their maximum accuracy is 84.70%, and the highest F1 score is only 63.65%. Compared to BERT-based models, the prompt engineering method based on large

关 键 词:引文情感分类 LLM 深度学习 

分 类 号:H31[语言文字—英语]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象