检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:徐忠城 胡恩良[1,2] XU Zhongcheng;HU Enliang(School of Mathematics,Yunnan Normal University,Kunming 650500,China;Yunnan Key Laboratory of Modern Analytical Mathematics and Applications,Kunming 650500,China)
机构地区:[1]云南师范大学数学学院,云南昆明650500 [2]云南省现代分析数学及其应用重点实验室,云南昆明650500
出 处:《现代信息科技》2025年第5期99-104,共6页Modern Information Technology
基 金:云南省现代分析数学及其应用重点实验室(202302AN360007);国家自然科学项目(62266055)。
摘 要:文章针对度量学习原凸问题的非凸重新表述,提出了一种带方差缩减策略的非凸随机优化算法(ML_NSVR),用于更高效地求解非凸度量学习问题。在适当的初始选择下,该算法在有限制的强凸条件下能够收敛,其收敛性得到了理论证明。数值实验验证了算法的有效性,为解决非凸度量学习问题提供了一种新的思路。同时,文章将所提算法与传统的随机梯度下降算法(SGD)和随机方差缩减梯度算法(SVRG)进行了优化效果对比。实验结果表明,ML_NSVR算法的效率更高。Aiming at the non-convex re-representation of the original convex problem in metric learning,ML_NSVR is proposed as a non-convex stochastic optimization algorithm with variance reduction strategy to solve non-convex metric learning problems more efficiently.Under appropriate initial selection,the algorithm can converge under restricted strongly convex conditions,and its convergence is proved theoretically.The effectiveness of the algorithm is verified by numerical experiments,which provides a new idea for solving non-convex metric learning problems.At the same time,this paper compares the optimization effect of the proposed algorithm with the traditional Stochastic Gradient Descent(SGD)algorithm and the Stochastic Variance Reduction Gradient(SVRG)algorithm.
分 类 号:TP181[自动化与计算机技术—控制理论与控制工程]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.7