检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:项前 唐继婷 吴建国[1] XIANG Qian;TANG Jiting;WU Jianguo(Institute of Computer Science and Technology,Anhui University,Hefei 230601,China)
机构地区:[1]安徽大学计算机科学与技术学院,合肥230601
出 处:《计算机工程与应用》2020年第19期182-188,共7页Computer Engineering and Applications
基 金:国家自然科学基金(No.61602004);安徽省自然科学基金(No.1908085MF182)。
摘 要:有效的多模态特征融合在RGBD显著性目标检测领域中发挥着重要的作用,但如何学习到有效的多模态特征融合在目前仍然是一个挑战性的任务。不同于利用多模态显著图加权融合的传统方法,基于卷积神经网络的方法使用简单的卷积操作融合多模态特征,但这对于大量的跨模态数据融合来说是不够的。为了解决这个问题,提出了一种新颖的上采样融合模块,它不仅具有多尺度的感知能力,还同时进行全局和局部上下文推理,此外强监督残差模块增强了网络训练的稳定和有效性。与现有的方法相比,提出的方法能够提供更稳定、更灵活的融合流,从而实现了RGB和Depth信息充分、高效的融合。在三个广泛使用的RGBD显著性目标检测数据集上的大量实验证明了该方法的有效性。Effective multi-modal feature fusion plays an important role in RGBD salient object detection, but how to learn effective multi-modal feature fusion is still a challenging task. Unlike traditional methods that use multimodal saliency map weighted fusion, convolutional neural network-based methods use simple convolution operations to fuse multi-modal features, but this is not sufficient for large cross-modal data fusion. In order to solve this problem, a novel upsampling fusion module is proposed, which not only has multi-scale perception, but also performs global and local context reasoning.In addition, the application of super supervised residual module enhances training stability and effectiveness. The proposed method can provide more stable and flexible fusion stream in comparison with the existing methods, thus achieving full and efficient fusion of RGB and Depth information. A large number of experimental results on three widely used RGBD salient object detection datasets demonstrate that the proposed method is effectiveness.
关 键 词:多模态 RGBD显著性目标检测 强监督
分 类 号:TP391[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.118