基于提示方法与知识蒸馏方法的口语语音识别模型构建  被引量:1

Construction of Spoken Language Recognition Models Based on Prompt Methods and Knowledge Distillation Methods

在线阅读下载全文

作  者:郭嘉 彭太乐[1] GUO Jia;PENG Taile(School of Computer Science and Technology,Huaibei Normal University,Huaibei 235065 China)

机构地区:[1]淮北师范大学计算机科学与技术学院,安徽淮北235065

出  处:《西华大学学报(自然科学版)》2023年第6期59-67,共9页Journal of Xihua University:Natural Science Edition

基  金:国家自然科学基金项目(61976101);安徽省高校自然科学研究项目(KJ2017A843)。

摘  要:提示方法是利用预训练语言模型的一种有效技术,只需要少量的示例就可以使用语言模型进行一个新的自然语言任务。文章提出了一种新的基于提示方法和知识蒸馏方法的语音识别模型(SpokenPrompt-KD模型)。该模型利用Wav2Vec模型将语音转化为预训练语言模型可识别的文本嵌入形式,从而将语言模型的小样本学习能力拓展到语音识别领域,同时通过知识蒸馏方法将教师语言模型中的知识传递给学生语音模型,以提高模型在语音理解任务上的准确性。实验结果表明,在100 h的数据集上进行预训练后,模型在分类任务上的准确率可以达到88.4%,证明了这种小样本学习能力的模型在语音识别领域是可行的、有效的。Prompt method is an effective approach for using pre-trained language models.It requires only a small number of examples to perform a new natural language task.This article presents a novel speech recognition model,which is called SpokenPrompt-KD and based on prompting and knowledge distillation methods.This model utilizes the Wav2Vec model to convert speech into a text embedding format recognizable by pre-trained language models,thereby extends the language model's few-shot learning capabilities into the realm of speech recognition.Simultaneously,it employs knowledge distillation methods to transfer knowledge from a teacher language model to a student speech model,aiming to enhance the model's accuracy in speech understanding tasks.The experimental results indicate that after pre-training on a 100-hour dataset,the model achieves an accuracy of 88.4%in classification tasks.The experiments demonstrate the feasibility and effectiveness of this model with few-shot learning capabilities in the field of speech recognition.

关 键 词:自然语言处理 提示方法 语音识别模型 知识蒸馏 

分 类 号:TP391.42[自动化与计算机技术—计算机应用技术] TN912.3[自动化与计算机技术—计算机科学与技术]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象