相依观察值下新的伯恩斯坦不等式及其在学习理论中的应用(英文)  

New Bernstein's Inequalities for Dependent Observations and Applications to Learning Theory

在线阅读下载全文

作  者:邹斌[1] 唐远炎[2] 李落清[1] 徐婕[3] 

机构地区:[1]湖北大学数学与统计学学院,武汉430062 [2]澳门大学科技学院,中国澳门 [3]湖北大学计算机与信息工程学院,武汉430062

出  处:《应用概率统计》2014年第6期570-584,共15页Chinese Journal of Applied Probability and Statistics

基  金:supported in part by National Natural Science Foundation of China(11371007,61370002,61403132);Multi-Year Research of University of Macao under Grants No.MYRG205(Y1-L4)-FST11-TYY and No.MYRG187(Y1-L3))-FST11-TYY;Start-up Research of University of Macao under Grant No.SRG010-FST11-TYY;Natural Science Foundation of Hubei Province(2011CDA003)

摘  要:经典的集中不等式描述了基于独立同分布随机变量的函数与其数学期望的偏离程度,并且这些不等式在统计学和机器学习理论中都有许多重要的应用.在本文,我们超出了独立同分布随机变量这个经典框架来建立了基于β-混合序列、一致遍历马氏链的两个新的伯恩斯坦不等式.作为这些不等式的应用,我们又建立了基于β-混合序列的经验风险最小化算法的一致偏差速率的界.The classical concentration inequalities deal with the deviations of functions of independent and identically distributed (i.i.d.) random variables from their expectation and these inequalities have numerous important applications in statistics and machine learning theory. In this paper we go far beyond this classical framework by establish two new Bernstein type concentration in-equalities for β-mixing sequence and uniformly ergodic Markov chains. As the applications of the Bernstein's inequalities, we also obtain the bounds on the rate of uniform deviations of empirical risk minimization (ERM) algorithms based on β-mixing observations.

关 键 词:集中不等式 β-混合 马氏链 一致偏差 经验风险最小化 

分 类 号:O211.1[理学—概率论与数理统计]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象