检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]国防科技大学信息系统与管理学院,湖南长沙410073
出 处:《国防科技大学学报》2014年第4期188-194,共7页Journal of National University of Defense Technology
摘 要:基于凸优化中的对偶理论,提出了一种具有遗忘特性的在线学习算法框架。其中,Hinge函数的Fenchel对偶变换是将基本学习问题由批量学习转化为在线学习的关键。新的算法过程是通过以不同方式提升含有约束变量的对偶问题实现的:(1)梯度提升;(2)贪婪提升。回顾了以往的相关研究工作,并指出了与之的区别与联系。人造数据集和真实数据集上的实验结果证实了算法框架的有效性。算法可以很好地处理数据流中的分类面漂移问题,为设计和分析新的在线学习算法提供了一个新的思路。Based on the notion of duality in convex optimization, a novel online learning algorithmic framework with forgetting property is proposed. The Fenchel conjugate of binge functions is a key to transfer the basic learning problem from batch to online. New online learning algorithms were derived by different dual ascending procedures : ( 1 ) gradient ascent ; ( 2 ) greedy ascent. Earlier researches were reviewed. Detailed experiments on synthetic and real-world datasets verified the effectiveness of the approaches. An important conclusion is that our derived online learning algorithms can handle the settings where the target hypothesis is not fixed but drifts with the sequence of examples, which paves a way to the design and analysis of online learning algorithms.
关 键 词:在线学习 Fenchel对偶 梯度提升 贪婪提升
分 类 号:TP391[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.15