检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:张宇[1] 计哲[2] 万辛[2] 张震[2] 葛凤培[1] 颜永红[1]
机构地区:[1]中国科学院声学研究所,语言声学与内容理解重点实验室,北京100190 [2]国家计算机网络应急技术处理协调中心,北京100029
出 处:《天津大学学报(自然科学与工程技术版)》2015年第9期765-770,共6页Journal of Tianjin University:Science and Technology
基 金:国家高技术研究发展计划(863计划)资助项目(2012AA012503);中国科学院战略性先导科技专项(XDA06030100,XDA 06030500);国家自然科学基金资助项目(11461141004,91120001,61271426);中科院重点部署资助项目(KYGD-EW-103-2)
摘 要:声学模型自适应算法研究目的是缓解由测试数据和训练数据不匹配而引起的识别性能下降问题.基于深度神经网络(DNN)模型框架的自适应技术中,重训练是最直接的方法,但极容易出现过拟合现象,尤其是自适应数据稀疏的情况下.文章针对领域相关的自动语音识别任务,对典型的两种声学模型自适应算法进行了尝试,实验了基于线性变换网络的自适应方法和基于相对熵正则化准则的自适应方法,并对两种算法进行了详尽的系统性能比较.结果表明,在不同的自适应数据量下,相对熵正则化自适应方法均能表现出较好的性能.Acoustic model adaptation algorithm aims at reducing the recognition performance degradation caused by the mismatch between training and testing data. Among the many adaptation techniques based on deep neural net- work (DNN), retraining is the most straightforward way. However it is prone to over-fitting, especially when adap- tation data is sparse. In this paper, two typical acoustic adaptation methods, namely linear transformation network adaptation and Kullback-Leibler divergence regularization adaptation, are experimentally explored for task- adaptation purpose. An elaborate comparison is made, and results show that KL divergence regularization technique achieves better performance under different amounts of adaptation data.
分 类 号:TN912.34[电子电信—通信与信息系统]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.249