检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:龙军[1] 邓茜尹 陈云飞 杨展 LONG Jun;DENG Xi-yin;CHEN Yun-fei;YANG Zhan(Big Data Institute,School of Computer Science and Engineering,Central South University,Changsha 410083,China)
机构地区:[1]中南大学计算机学院大数据研究院,湖南长沙410083
出 处:《计算机工程与设计》2024年第8期2393-2399,共7页Computer Engineering and Design
基 金:国家自然科学基金项目(62202501、U2003208);国家重点研发计划基金项目(2021YFB3900902);湖南省自然科学基金项目(2022JJ40638)。
摘 要:为解决当前无监督跨模态哈希检索在全局相似性矩阵构建和异构数据语义信息融合中存在的困难,提出一种基于图卷积的无监督跨模态哈希检索算法(GCUH)。采用分层次聚合的方式,将各个模态的相似性结构编码到全局相似性矩阵中,获得跨模态的成对相似性信息来指导学习。使用图卷积模块融合跨模态信息,消除邻居结构中的噪声干扰,形成完备的跨模态表征,提出两种相似性保持的损失函数约束哈希码的一致性。与基线模型相比,GCUH在NUS-WIDE数据集上使用64位哈希码执行文本检索图片任务的检索精度提升了6.3%。To solve the difficulties in constructing global similarity structure and learning the semantic information of heterogeneous data during the unsupervised cross-modal hashing retrieval,a graph convolution based unsupervised hashing method for cross-modal retrieval(GCUH)was proposed.The hierarchical aggregation was utilized to encode the similarity structure of each modality into a global similarity matrix and the pairwise similarity information across modalities was obtained to guide the learning process.The graph convolution module was introduced to fuse the cross-modal information and the noise in the neighbor structure was eliminated.Two similarity preservation losses were applied to constrain the consistency of learned hash code.Compared to the baseline models,GCUH achieves a 6.3%improvement in retrieval accuracy on the NUS-WIDE dataset using 64-bit hash codes for the text retrieval image task.
关 键 词:哈希学习 跨模态 无监督深度学习 图卷积网络 相似度构建 信息检索 机器学习
分 类 号:TP391[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.42