姜纪远

作品数:6被引量:36H指数:3
导出分析报告
供职机构:中国人民解放军陆军军官学院更多>>
发文主题:L1正则化收敛速率MIRRORCOMPOSITE强凸更多>>
发文领域:自动化与计算机技术更多>>
发文期刊:《模式识别与人工智能》《电子学报》《计算机研究与发展》《软件学报》更多>>
所获基金:国家自然科学基金安徽省自然科学基金更多>>
-

检索结果分析

署名顺序

  • 全部
  • 第一作者
结果分析中...
条 记 录,以下是1-6
视图:
排序:
随机COMID的瞬时收敛速率分析被引量:1
《电子学报》2015年第9期1850-1858,共9页姜纪远 陶卿 邵言剑 汪群山 
国家自然科学基金(No.61273296;No.60975040);安徽省自然科学基金(No.1308085QF121)
COMID(Composite Objective MIrror Descent)是一种能够保证L1正则化结构的在线算法,其随机收敛速率可由在线算法的regret界直接得到,但其最终解是T次迭代平均的形式,稀疏性很差.瞬时解具有很好的稀疏性,因此分析算法的瞬时收敛速率在...
关键词:机器学习 随机优化 非光滑优化 L1正则化 COMID 瞬时收敛速率 
求解AUC优化问题的对偶坐标下降方法被引量:1
《软件学报》2014年第10期2282-2292,共11页姜纪远 陶卿 高乾坤 储德军 
国家自然科学基金(61273296;60975040);安徽省自然科学基金(1308085QF121)
AUC被广泛作为衡量不平衡数据分类性能的评价标准.与二分类问题不同,AUC问题的损失函数由来自两个不同类别的样本对组成.如何提高其实际收敛速度,是一个值得研究的问题.目前的研究结果表明:使用reservoir sampling技术的在线方法(OAM)...
关键词:机器学习 优化方法 AUC 对偶坐标下降 支持向量机 
一种具有O(1/T)收敛速率的稀疏随机算法被引量:3
《计算机研究与发展》2014年第9期1901-1910,共10页姜纪远 夏良 章显 陶卿 
国家自然科学基金项目(61273296;60975040);安徽省自然科学基金项目(1308085QF121)
随机梯度下降(stochastic gradient descent,SGD)是一种求解大规模优化问题的简单高效方法,近期的研究表明,在求解强凸优化问题时其收敛速率可通过α-suffix平均技巧得到有效的提升.但SGD属于黑箱方法,难以得到正则化优化问题所期望的...
关键词:机器学习 随机优化 稀疏性 L1正则化 COMID 
一种求解强凸优化问题的最优随机算法被引量:11
《软件学报》2014年第9期2160-2171,共12页邵言剑 陶卿 姜纪远 周柏 
国家自然科学基金(61273296)
随机梯度下降(SGD)算法是处理大规模数据的有效方法之一.黑箱方法SGD在强凸条件下能达到最优的O(1/T)收敛速率,但对于求解L1+L2正则化学习问题的结构优化算法,如COMID(composite objective mirror descent)仅具有O(lnT/T)的收敛速率.提...
关键词:机器学习 随机优化 强凸问题 混合正则化项 COMID (composite objective MIRROR descent) 
求解线性SVM的非精确步长搜索割平面方法被引量:1
《模式识别与人工智能》2014年第8期692-700,共9页储德军 陶安 高乾坤 姜纪远 陶卿 
国家自然科学基金项目(No.61273296;61175035);安徽省自然科学基金青年项目(No.1308085121QF121)资助
割平面方法可高效求解线性支持向量机问题,其主要思路是通过不断添加割平面并利用精确线性搜索实现算法的加速和优化.针对其中的非光滑线性搜索问题,文中提出一种基于非精确步长搜索的加速割平面方法.该方法使用较少的迭代次数就能确定...
关键词:大规模学习 凸优化 线性支持向量机 割平面方法 线性搜索 
稀疏学习优化问题的求解综述被引量:23
《软件学报》2013年第11期2498-2507,共10页陶卿 高乾坤 姜纪远 储德军 
国家自然科学基金(60975040;61273296);安徽省自然科学基金(1308085QF121)
机器学习正面临着数据规模日益扩大的严峻挑战,如何处理大规模甚至超大规模数据问题,是当前统计学习亟需解决的关键性科学问题.大规模机器学习问题的训练样本集合往往具有冗余和稀疏的特点,机器学习优化问题中的正则化项和损失函数也蕴...
关键词:L1正则化 在线优化 随机优化 坐标优化 
检索报告 对象比较 聚类工具 使用帮助 返回顶部