基于Transformer-LSTM架构的语音去噪方法研究  

在线阅读下载全文

作  者:胡必波 刘红英 王传传 甄雅迪 

机构地区:[1]广州工商学院工学院,广东广州510850

出  处:《信息记录材料》2025年第4期49-51,共3页Information Recording Materials

基  金:2023年度校级教材建设项目(2023JC-01);2023年度校级质量工程(大学生校外实践教学基地)项目(XWSJJXJD2023006)。

摘  要:在语音识别系统中,语音信号与噪声的叠加使得传统方法难以有效进行语音识别。针对这一问题,本研究提出一种基于Transformer的长短期记忆(long short⁃term memory,LSTM)架构的语音去噪方法,该方法结合Transformer的多头注意力机制和LSTM的时序建模能力,能够有效地从混合语音信号中去除背景噪声;语音去噪模型采用自适应学习率进行训练优化,基于WSJ0-Mix数据集的评估结果表明:基于Transformer⁃LSTM架构的语音去噪方法在信噪比、信号失真比和感知语音质量评估等指标上均优于传统的梯度下降方法,表明Transformer⁃LSTM架构能够在语音去噪任务中提供更为精确的信号恢复和噪声抑制能力,也充分验证了该方法在语音去噪任务中的有效性和优越性。

关 键 词:TRANSFORMER 长短期记忆(LSTM) 多头注意力机制 语音去噪 自适应学习率 

分 类 号:TN912.34[电子电信—通信与信息系统]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象