检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]哈尔滨工业大学计算机科学与技术学院,哈尔滨150001
出 处:《声学学报》2011年第6期658-664,共7页Acta Acustica
基 金:973计划项目(2007CB311100);863计划重点项目(2006AA010103)资助
摘 要:提出一种模型补偿方法,以克服基于高斯混合模型的文本无关说话人识别系统性能随目标话者训练语料长度减小而下降的问题。该方法首先构造了一个低维的移动空间,每个训练语料较充分说话人模型的自适应过程均可用该空间中的移动因子表示,然后在目标话者训练语料较不充分的条件下,从受训练语料长度影响较小的话者模型分量中学习移动因子,并依据它对受语料长度影响较大的分量进行参数补偿。和基线系统相比,该方法在相同的训练和评测集上,等错误率指标下,获得相对约7%的性能提升。The performance of GMM-based text-independent speaker recognition systems declines rapidly when the training data is reduced. A model compensation method is proposed to address the problem. Since there is a shift between each target GMM-based model and the UBM (Universal Background Model), a low-dimensional affine space is fined, named shift space, and the shift for each model with sufficient training data is transformed to the shift factor in this space. When the training data of the target speaker is insufficient, firstly, the coordinate of the shift factor is learned from the GMM mixtures of insensitive to the amount of training data, and then it is adopted to compensate other GMM mixtures. Using the proposed method, a relative reduction of 7% in EER (equal error rate) is obtained comparing with the baseline system.
关 键 词:说话人识别系统 高斯混合模型 补偿方法 移动 识别方法 因子 自适应过程 文本无关
分 类 号:TN912.34[电子电信—通信与信息系统]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.204