基于扩展N元文法模型的快速语言模型预测算法  被引量:6

Fast Language Model Look-ahead Algorithm Using Extended N-gram Model

在线阅读下载全文

作  者:单煜翔[1] 陈谐[1] 史永哲[1] 刘加[1] 

机构地区:[1]清华大学电子工程系清华信息科学与技术国家实验室,北京100084

出  处:《自动化学报》2012年第10期1618-1626,共9页Acta Automatica Sinica

基  金:国家高技术研究发展计划(863计划)(2008AA040201);国家自然科学基金(90920302);国家科技支撑计划(2009BAH41B01);国家自然科学基金委员会与香港研究资助局联合科研基金(60931160443)资助~~

摘  要:针对基于动态解码网络的大词汇量连续语音识别器,本文提出了一种采用扩展N元文法模型进行快速语言模型(Language model,LM)预测的方法.扩展N元文法模型统一了语言模型和语言模型预测树的表示与分数计算方法,从而大大简化了解码器的实现,极大地提升了语言模型预测的速度,使得高阶语言模型预测成为可能.扩展N元文法模型在解码之前离线生成,生成过程利用了N元文法的稀疏性加速计算过程,并采用了词尾节点前推和分数量化的方法压缩模型存储空间大小.实验表明,相比于采用动态规划在解码过程中实时计算语言模型预测分数的传统方法,本文提出的方法在相同的字错误率下使得整个识别系统识别速率提升了5~9倍,并且采用高阶语言模型预测可获得比低阶预测更优的解码速度与精度.For a dynamic network based large vocabulary continuous speech recognizer, this paper proposes a fast language model (LM) look-ahead method using extended N-gram model The extended N-gram model unifies the rep- resentations and score computations of the LM and the LM look-ahead tree, and thus greatly simplifies the decoder implementation and improves the LM look-ahead speed significantly, which makes higher-order LM look-ahead possible. The extended N-gram model is generated off-line before decoding starts. The generation procedure makes use of sparse- ness of backing-off N-gram models for efficient look-ahead score computation, and uses word-end node pushing and score quantitation to compact the model's storage space. Experiments showed that with the same character error rate, the proposed method speeded up the overall recognition speed by a factor of 5 ~ 9 than the traditional dynamic program- ming method which computes LM look-ahead scores on-line during the decoding process, and that using higher-order LM look-ahead algorithm can achieve a faster decoding speed and better accuracy than using the lower-order look-ahead ones.

关 键 词:语音识别 语言模型预测 N元文法模型 解码 

分 类 号:TN912.34[电子电信—通信与信息系统]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象