检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:戴明洋[1] 杨大利[1] 徐明星[2,3,4]
机构地区:[1]北京信息科技大学计算机学院,北京100101 [2]普适计算教育部重点实验室 [3]清华信息科学与技术国家实验室(筹) [4]清华大学计算机科学与技术系,北京100084
出 处:《北京信息科技大学学报(自然科学版)》2012年第2期63-67,共5页Journal of Beijing Information Science and Technology University
基 金:北京市属市管高等学校人才强教计划资助项目(PHR201007131)
摘 要:真实语音情感识别是使人机交互更加友好的重要手段,但是训练数据稀缺为这一领域带来很多挑战。为了减小这一阻碍,提出了语句串接与重采样(UCR)方法,以便高效利用存在的训练数据。UCR方法是将原始音频样本按照情感类型进行串接,形成一个长的音频流,以一个固定粒度对其随机乱序,然后将其切割,并通过多次重采样操作来增加支持向量机(SVM)的训练样本数。实验基于一个从访谈节目中录制的真实语音情感库。实验结果表明,在统一背景模型-高斯混合模型-支持向量机(UBM—GMM—SVM)识别框架中这种训练集重构的方法错误率降低近33.10%。Real emotion recognition can be an important means to make human-computer interaction more friendly,yet insufficient training data pose many challenges for this speech-related field.In this paper,a method to help reduce this barrier is proposed by effectively utilizing existing training data—namely,utterance concatenation and resampling(UCR).It involves concatenation of audio files of the same emotion into a long stream,and then segmenting the stream;randomly permuting chunks of that stream;and even increasing the number of all supervectors for SVM by resampling several times.Experiments are made based on the interview speech emotion database,recorded from actual television interviews.Evaluation results show that the error rate reduction can reach 33.10% by restructuring the training data of UBM-GMM-SVM systems.
关 键 词:语音情感识别 高斯混合模型超向量 UBM-GMM-SVM
分 类 号:TP391[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.36