检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:陈德昊 林建恒 衣雪娟 孙军平 江鹏飞 李承帮 CHEN Dehao;LIN Jianheng;YI Xuejuan;SUN Junping;JIANG Pengfei;LI Chengbang(University of Chinese Academy of Sciences,Beijing 100049,China;Qingdao Branch,Institute of Acoustics,Chinese Academy of Sciences,Qingdao 266114,Shandong,China)
机构地区:[1]中国科学院大学,北京100049 [2]中国科学院声学研究所北海研究站,山东青岛266114
出 处:《声学技术》2021年第3期336-340,共5页Technical Acoustics
基 金:国家自然科学基金(11804361);国家重点研发计划资助课题(2019YFD0901301)资助项目。
摘 要:水下声信号分类是水声学研究的一个重要方向。一个有效的特征提取和分类决策方法对水声信号分类技术至关重要。文章将鱼声、商船辐射噪声和风关噪声三类实测的水声信号在小波包分解的基础上提取时频图特征,并搭建了一个七层结构的卷积神经网络作为分类器。研究结果表明:三种水声信号的小波包时频图特征结合卷积神经网络在不同测试集可达到(98±1)%的总体准确率。因此,小波包时频图特征结合卷积神经网络的水声分类方法可望推广至更多水声信号分类。该研究结果可为水声信号的分类识别研究提供应用参考。Underwater acoustic signal classification is an important research direction in underwater acoustics,and an effective feature extraction and classification decision method is of great concern for underwater acoustic signal classi-fication technology.In this paper,based on wavelet packet decomposition,the time-frequency map features of three kinds of underwater acoustic signals,namely fish vocalization signals,merchant ship radiated noise signals and wind-generated noise signals,are extracted,and a convolutional neural network(CNN)with seven-layer structure is set up as a classifier.The research results show that the accuracy of the three kinds of acoustic signals by the methods of combining the time-frequency map features of wavelet packet and the convolutional neural network can reach(98±1)%in different test sets.Therefore,the method can be expected to be used for the classification of more underwater acoustic signals.This research results can provide a reference for the classification and recognition of underwater acoustic signals.
关 键 词:水声信号 小波包分解 时频图 卷积神经网络 分类
分 类 号:TN911.7[电子电信—通信与信息系统]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.3