检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]北京交通大学信息科学研究所,北京100044 [2]华北理工大学信息工程学院,河北唐山063009
出 处:《软件学报》2015年第7期1800-1811,共12页Journal of Software
基 金:国家重点基础研究发展计划(973)(2012CB316304);国家自然科学基金(61471032;61472030);河北省高等学校科学技术研究青年基金(QN2014026);教育部创新团队项目(IRT201206);北京市现代信息科学与网络技术重点实验室资助项目
摘 要:面对网络图像的爆炸性增长,网络图像标注成为近年来一个热点研究内容,稀疏特征选择在提升网络图像标注效率和性能方面发挥着重要的作用.提出了一种增强稀疏性特征选择算法,即,基于l2,1/2矩阵范数和共享子空间的半监督稀疏特征选择算法(semi-supervised sparse feature selection based on l2,1/2-matix norm with shared subspace learning,简称SFSLS)进行网络图像标注.在SFSLS算法中,应用l2,1/2矩阵范数来选取最稀疏和最具判别性的特征,通过共享子空间学习,考虑不同特征之间的关联信息.另外,基于图拉普拉斯的半监督学习,使SFSLS算法同时利用了有标签数据和无标签数据.设计了一种有效的迭代算法来最优化目标函数.SFSLS算法与其他稀疏特征选择算法在两个大规模网络图像数据库上进行了比较,结果表明,SFSLS算法更适合于大规模网络图像的标注.In dealing with the explosive growth of web images, Web image annotation has become a critical research issue in recent years. Sparse feature selection plays an important role in improving the efficiency and performance of Web image annotation. In this paper a feature selection framework is proposed with enhanced sparsity for Web image annotation. The new framework, termed as semi-supervised sparse feature selection based on l2,l/2-matix norm with shared subspace learning (SFSLS), selects the most sparse and discriminative features by utilizingl2,l/2-matix norm and obtains the correlation between different features via shared suhspace learning. In addition, SFSLS uses graph Laplacian semi-supervised learning to exploit both labeled and unlabeled data simultaneously. An efficient itarative algorithm is designed to optimize the objective function. SFSLS method is compared to other feature selection algorithms on two Web image datasets and the results indicate it is suitable for large-scale Web image annotation.
关 键 词:网络图像标注 稀疏特征选择 l2 1/2矩阵范数 共享子空间学习 半监督学习
分 类 号:TP391[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.222