检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:徐清振[1] 肖彬 XU Qingzhen;XIAO Bin(School of Computer Science,South China Normal University,Guangzhou 510631,China)
出 处:《华南师范大学学报(自然科学版)》2023年第1期88-93,共6页Journal of South China Normal University(Natural Science Edition)
基 金:广东省科技攻关计划项目(201903010103)。
摘 要:针对跨模态检索中不同模态数据的数据结构和特性存在较大差异的问题,提出了基于公共空间方法的共享参数跨模态检索(SPCMR)方法:首先,利用卷积神经网络提取图像和文本的高级语义特征;然后,接入全连接层将其映射到公共空间并共享2个特征子网的部分隐层权重;最后,连接线性分类器并与标签信息进行判别训练。在公开数据集上采用平均精度(mAP)作为评价指标进行实验。结果表明:SPCMR方法能充分利用跨模态间的语义信息,有效提升图文检索的精度。To address the problem of large differences in data structures and characteristics of different modal data in cross-modal retrieval,the Shared Parameters Cross-modal Retrieval(SPCMR)based on the common space approach is proposed:first,the high-level semantic features of images and text are extracted by convolutional neural networks;then,mapping them to the common space through a fully connected layer and sharing part of the hidden layer weights of the 2 feature subnets;finally,discriminative training is performed by a linear classifier with label information.Experiments are conducted on the public dataset using the mean average precision(mAP)score as evaluation metrics,and the results show that the SPCMR can make full use of the semantic information of cross modal samples and effectively improve the accuracy of image and text retrieval.
分 类 号:TP391[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.130