检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:梁健力 商豪[1] LIANG Jianli;SHANG Hao(School of Science,Hubei Univ.of Tech.,Wuhan 430068,China)
出 处:《湖北工业大学学报》2023年第2期33-39,73,共8页Journal of Hubei University of Technology
摘 要:在不平衡数据下,文本分类模型容易把样本数量较少的类别错分成数量较多的类别。在采样层面上提出一种平滑采样方法,在损失函数层面上根据不平衡分布改进交叉熵损失和标签平滑。复旦文本数据集上的实验表明,每种层面的改进都较基准模型有一定提高。当结合使用采样和损失函数的改进时,TextCNN、BiLSTM+Attention、TextRCNN和HAN模型在宏平均F_(1)值上分别提高4.17%、5.13%、5.06%和6.21%,在G-mean上分别提高6.56%、3.03%、3.92%和5.32%,较好解决了不平衡数据下文本分类任务。When data are imbalanced,text classification models are easy to misclassify minority class to majority class.This paper proposes a smooth sampling method at the sampling level,and improves the cross entropy loss and label smoothing based on the imbalanced distribution at the loss function level.Experiments on the Fudan text corpus show that the improved method in each level outperforms the benchmark method.With the combination of the improved method in sampling level and loss function level,the TextCNN,BiLSTM+Attention,TextRCNN and HAN models can obtain 4.17%,5.31%,5.06%,and 6.21%macro F_(1) improvement and increase 6.56%,3.03%,3.92%,and 5.32%on G mean respectively.The methods proposed in this paper have been verified the effectiveness on imbalanced corpora.
分 类 号:TP391[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.15