检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]新疆大学信息科学与工程学院,新疆乌鲁木齐830046 [2]新疆大学多语种信息技术实验室,新疆乌鲁木齐830046
出 处:《新疆大学学报(自然科学版)》2011年第3期260-266,共7页Journal of Xinjiang University(Natural Science Edition)
基 金:国家自然科学基金(60965002);新疆高校科研计划培育基金(XJEDU2008S15);新疆大学博士科研启动基金(BS090143)资助
摘 要:声调集成是汉语语音识别的一个重要任务.在语音识别的二次解码过程中,使用区分性训练的权重因子进行声调模型集成已被证明是一个有效的方法,而且使用上下文相关的得分加权进行模型组合也得到了应用.上下文相关模型组合方法的一个不足是将会带来大量的训练参数,从而导致权重训练受到过拟合的影响.针对该问题,提出利用声学决策树对上下文相关权重参数进行参数聚类,决策树节点问题集根据最小化训练数据的期望误识率进行选择.提出问题集剪枝来加快决策树的构建速度.汉语连续语音识别实验表明与人工选择上下文相关权重参数相比,该方法能够在大大减少参数数量的条件下明显降低误识率.Tone model integration is an important task in Mandarin speech recognition. Discriminative model weight training is an effective technique for this purpose. In recent works, context-dependent scaling is often applied for better interpolation between the models. One limitation of this approach is a large number of parameters will be introduced, which makes it prone to overtraining. In this paper, we propose parameter tying to cluster context-dependent model weights using phonetic decision trees. Question at each tree node is chosen to minimize expected error of the training data. Question set pruning is used in node splitting to make tree building efficient. Experimental results on continuous speech recognition task show the method is capable of achieve better accuracy using many fewer parameters.
关 键 词:声调集成 最小音子错误 决策树 汉语语音识别 区分性模型组合 上下文相关
分 类 号:TN912.34[电子电信—通信与信息系统]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.170