基于循环神经网络语言模型的N-best重打分算法  被引量:3

N-best Rescoring Algorithm Based on Recurrent Neural Network Language Model

在线阅读下载全文

作  者:张剑[1] 屈丹[1] 李真[1] 

机构地区:[1]解放军信息工程大学信息系统工程学院,郑州450002

出  处:《数据采集与处理》2016年第2期347-354,共8页Journal of Data Acquisition and Processing

基  金:国家自然科学基金(61175017)资助项目;国家高技术研究发展计划("八六三"计划)(2012AA011603)资助项目;全军军事学研究生课题(2010JY0258-144)资助项目

摘  要:循环神经网络语言模型能够克服统计语言模型中存在的数据稀疏问题,同时具有更强的长距离约束能力,是一种重要的语言模型建模方法。但在语音解码时,由于该模型使词图的扩展次数过多,造成搜索空间过大而难以使用。本文提出了一种基于循环神经网络语言模型的N-best重打分算法,利用N-best引入循环神经网络语言模型概率得分,对识别结果进行重排序,并引入缓存模型对解码过程进行优化,得到最优的识别结果。实验结果表明,本文方法能够有效降低语音识别系统的词错误率。Recurrent neural network language model (RNNLM ) is an important method in statistical lan‐guage models because it can tackle the data sparseness problem and contain a longer distance constraints . However ,it lacks practicability because the lattice has to expand too many times and explode the search space .Therefore ,a N‐best rescoring algorithm is proposed which uses the RNNLM to rerank the recog‐nition results and optimize the decoding process .Experimental results show that the proposed method can effectively reduce the word error rate of the speech recognition system .

关 键 词:语音识别 语言模型 循环神经网络 N-best重打分 缓存语言模型 

分 类 号:TP391[自动化与计算机技术—计算机应用技术]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象