汉语语音识别声调模型集成中基于决策树的上下文相关权重参数聚类方法  

Tone Model Integration Using Tree Based Weight Parameter Tying in Mandarin Speech Recognition

在线阅读下载全文

作  者:黄浩[1,2] 李兵虎[1,2] 吾守尔.斯拉木 

机构地区:[1]新疆大学信息科学与工程学院,新疆乌鲁木齐830046 [2]新疆大学多语种信息技术实验室,新疆乌鲁木齐830046

出  处:《新疆大学学报(自然科学版)》2011年第3期260-266,共7页Journal of Xinjiang University(Natural Science Edition)

基  金:国家自然科学基金(60965002);新疆高校科研计划培育基金(XJEDU2008S15);新疆大学博士科研启动基金(BS090143)资助

摘  要:声调集成是汉语语音识别的一个重要任务.在语音识别的二次解码过程中,使用区分性训练的权重因子进行声调模型集成已被证明是一个有效的方法,而且使用上下文相关的得分加权进行模型组合也得到了应用.上下文相关模型组合方法的一个不足是将会带来大量的训练参数,从而导致权重训练受到过拟合的影响.针对该问题,提出利用声学决策树对上下文相关权重参数进行参数聚类,决策树节点问题集根据最小化训练数据的期望误识率进行选择.提出问题集剪枝来加快决策树的构建速度.汉语连续语音识别实验表明与人工选择上下文相关权重参数相比,该方法能够在大大减少参数数量的条件下明显降低误识率.Tone model integration is an important task in Mandarin speech recognition. Discriminative model weight training is an effective technique for this purpose. In recent works, context-dependent scaling is often applied for better interpolation between the models. One limitation of this approach is a large number of parameters will be introduced, which makes it prone to overtraining. In this paper, we propose parameter tying to cluster context-dependent model weights using phonetic decision trees. Question at each tree node is chosen to minimize expected error of the training data. Question set pruning is used in node splitting to make tree building efficient. Experimental results on continuous speech recognition task show the method is capable of achieve better accuracy using many fewer parameters.

关 键 词:声调集成 最小音子错误 决策树 汉语语音识别 区分性模型组合 上下文相关 

分 类 号:TN912.34[电子电信—通信与信息系统]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象