基于卷积核视觉注意机制的网络结构优化  

在线阅读下载全文

作  者:王昌伟[1] 陆芸婷[1] 胡涛[1] 

机构地区:[1]深圳信息职业技术学院,广东深圳518172

出  处:《通讯世界》2020年第11期153-154,157,共3页Telecom World

基  金:广东省教育科学“十三五”规划2019年度高校哲学社会科学专项研究项目“基于伴随式数据收集与图神经网络结合的高校精准教学研究”(2019GXJK237)。

摘  要:本文提出一种卷积核注意模型(Kernel Attention Module,KAM),针对传统作用于特征图的视觉注意模型(Feature Attention Module,FAM)为了减少参数及计算量,只能选择性地对特征图的通道或空间维度加载掩模的问题。KAM改变掩模的作用位置,首先对卷积核加载掩模,然后使用处理后卷积核与输入特征的卷积操作得到输出。该方法只需要生成卷积核尺度的掩模不仅有效降低了计算量,而且得益于卷积操作的特性,作用于卷积核的掩模将以间接的形式同时影响卷积输出特征图的通道和空间维度,从避免丢失特征图通道或空间注意信息的丢失。

关 键 词:视觉注意机制 多尺度 卷积核 

分 类 号:TP391.41[自动化与计算机技术—计算机应用技术]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象