检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:范馨月[1] 张阔 张干 李嘉辉 Fan Xinyue;Zhang Kuo;Zhang Gan;Li Jiahui(School of Communication and Information Engineering,Chongqing University of Posts and Telecommunications,Chongqing 400065,China)
机构地区:[1]重庆邮电大学通信与信息工程学院,重庆400065
出 处:《电子测量与仪器学报》2024年第3期94-103,共10页Journal of Electronic Measurement and Instrumentation
基 金:国家自然科学基金(62271096)项目资助。
摘 要:目前跨模态行人重识别研究注重于通过身份标签在全局特征或局部特征上提取模态共享特征来减少模态差异,但却忽视了具有辨别力的细微特征。为此提出了一种基于特征增强的聚类学习网络,该网络通过全局和局部特征来挖掘并增强不同模态的细微特征,并结合多级联合聚类学习策略,最小化模态差异和类内变化。针对训练数据设计了随机颜色转换模块,在图像输入端增加模态之间的交互,以克服颜色偏差的影响。通过在公共数据集上进行实验,验证了所提方法的有效性,其中在SYSU-MM01数据集的全搜索模式下Rank-1和mAP分别达到了70.52%和64.02%;在RegDB数据集的V2I检索模式下Rank-1和mAP分别达到了88.88%和80.93%。The current cross-modal person re-identification research focuses on extracting modality-shared features from global features or local features via identity labels to reduce modality differences,but ignores the Subtle features of discernment.This paper proposes a feature enhanced clustering learning(FECL)network.The network mines and enhances the subtle features of different modalities through global and local features,and combines a multilevel joint clustering learning strategy to minimize the modal differences and intraclass variation.In addition,this paper also designs a random color transition module for training data,which increases the interaction between modalities at the image input to overcome the influence of color deviation.The experiments on public datasets verify the effectiveness of the proposed methods.In the All-search mode of SYSU-MM01 dataset,the Rank-1 and mAP reach 70.52%and 64.02%.In the V2I retrieval mode of RegDB dataset,the Rank-1 and mAP reach 88.88%and 80.93%.
关 键 词:行人重识别 跨模态 随机颜色转换 细微特征增强 多级联合聚类学习
分 类 号:TP391.4[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.49