检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:沈旭东 黄贤英[1] 邹世豪 Shen Xudong;Huang Xianying;Zou Shihao(College of Computer Science&Engineering,Chongqing University of Technology,Chongqing 400054,China)
机构地区:[1]重庆理工大学计算机科学与工程学院,重庆400054
出 处:《计算机应用研究》2024年第1期51-58,共8页Application Research of Computers
基 金:国家自然科学基金资助项目(62141201);重庆市自然科学基金资助项目(CSTB2022NSCQ-MSX1672);重庆理工大学研究生教育高质量发展行动计划资助项目(gzlcx20223190,gzlcx20232067)。
摘 要:针对现有对话情绪识别方法中对时序信息、话语者信息、多模态信息利用不充分的问题,提出了一个时序信息感知的多模态有向无环图模型(MTDAG)。其中所设计的时序感知单元能按照时间顺序优化话语权重设置,并收集历史情绪线索,实现基于近因效应下对时序信息和历史信息更有效的利用;设计的上下文和话语者信息融合模块,通过提取上下文语境和话语者自语境的深度联合信息实现对话语者信息的充分利用;通过设置DAG(directed acyclic graph)子图捕获多模态信息并约束交互方向的方式,在减少噪声引入的基础上充分利用多模态信息。在两个基准数据集IEMOCAP和MELD的大量实验表明该模型具有较好的情绪识别效果。Aiming at the issue of insufficient utilization of temporal information,speaker information,and multi-modal information in existing conversational emotion recognition methods,this paper proposed a multi-modal temporal-aware DAG model(MTDAG).The designed temporal-aware unit optimized the discourse weight setting in chronological order and collected historical emotional cues to achieve more effective utilization of temporal and historical information based on recency effect.The context and speaker information fusion module achieved the full utilization of discourse information by extracting the deep joint information of contextual context and speaker self-context.By setting the DAG subgraphs to capture multi-modal information and constrain the interaction direction,the model achieved full utilization of multi-modal information while reducing the introduction of noise.Extensive experiments conducted on two benchmark datasets,IEMOCAP and MELD,demonstrate that the model exhibits excellent performance in emotion recognition.
关 键 词:对话情绪识别 有向无环图 近因效应 特征提取 多模态交互
分 类 号:TP391[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:18.219.241.228