检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:赵亚南 刘渊[1,2] 宋设 ZHAO Yanan;LIU Yuan;SONG She(School of Digital Media,Jiangnan University,Wuxi,Jiangsu 214122,China;Jiangsu Key Laboratory of Media Design and Software Technology,Wuxi,Jiangsu 214122,China;Inspur Droso Big Data Industrial Development Co.,Ltd.,Wuxi,Jiangsu 214062,China)
机构地区:[1]江南大学数字媒体学院,江苏无锡214122 [2]江苏省媒体设计与软件技术重点实验室,江苏无锡214122 [3]浪潮卓数大数据产业发展有限公司,江苏无锡214062
出 处:《计算机工程》2020年第8期85-92,共8页Computer Engineering
基 金:国家自然科学基金面上项目(61672264)。
摘 要:针对现有文本情感分析方法存在的无法高效捕捉相关文本情感特征从而造成情感分析效果不佳的问题,提出一种融合双层多头自注意力与卷积神经网络(CNN)的回归模型DLMA-CNN。采用多头自注意力机制学习序列内部的词依赖关系,从而捕获序列的内部结构。重利用浅层特征并与多头自注意力特征进行融合,结合深度学习中的CNN进一步优化文本情感极性分析效果。在基准数据集SemEval-2017 Task 5上进行实验,结果表明,与传统机器学习算法CNN、ELSTM、Att-BLSTM等相比,该模型取得了较好的情感极性分析效果,且运行效率较高。Existing text sentiment analysis methods fail to efficiently capture the emotional features of the texts,which weakens the performance of sentiment analysis.To solve the problem,this paper proposes a regression model,DLMA-CNN,which uses the multi-head self-attention mechanism to learn the word dependency relationships within the sequence and capture the internal structure of the sequence.The model reuses shallow features and fuses them with multi-head self-attention features,using Convolution Neural Network(CNN)in deep learning to achieve better performance of sentiment polarity analysis in texts.Experiments on the benchmark dataset SemEval-2017 Task 5 show that the proposed model outperforms CNN,ELSTM,Att-BLSTM and other traditional machine learning algorithms in terms of sentiment polarity analysis,and can run more efficiently.
关 键 词:金融文本 情感极性分析 多头自注意力机制 特征融合 深度学习
分 类 号:TP18[自动化与计算机技术—控制理论与控制工程]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.7