正则化回归算法的快速学习率  被引量:2

Fast learning rates for regularized regression algorithms

在线阅读下载全文

作  者:佟宏志[1] 陈迪荣[2] 杨凤红[3] 

机构地区:[1]对外经济贸易大学信息学院,北京100029 [2]北京航空航天大学数学系,北京100083 [3]中央财经大学应用数学学院,北京100081

出  处:《中国科学:数学》2012年第12期1251-1262,共12页Scientia Sinica:Mathematica

基  金:国家自然科学基金(批准号:11171014和11072274);对外经济贸易大学校级科研课题研究成果(批准号:08QD28);对外经济贸易大学教师学术创新团队资助项目

摘  要:本文讨论了再生核Hilbert空间上一类广泛的正则化回归算法的学习率问题.在分析算法的样本误差时,我们利用了一种复加权的经验过程,保证了方差与惩罚泛函同时被阈值控制,从而避免了繁琐的迭代过程.本文得到了比之前文献结果更为快速的学习率.We consider a family of regularized regression algorithms in reproducing kernel Hilbert spaces. In the stochastic analysis of these algorithms, we avoid the prolix iteration via a reweighted empirical process which restricts the variance and the penalty functional as well. As a result, we derive some faster learning rates in comparison with ones known in the literature.

关 键 词:经验过程 学习率 回归算法 正则化 再生核HILBERT空间 

分 类 号:O212.1[理学—概率论与数理统计]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象