基于β-混合序列的学习机器的相对一致收敛速率的界(英文)  被引量:1

Bounds on the Rate of Relative Uniform Convergence for Learning Machine with Beta-mixing Sequences

在线阅读下载全文

作  者:邹 斌[1,2] 李落清[3] 万成高[3] 

机构地区:[1]西安交通大学理学院 [2]湖北大学数学与计算机科学学院,武汉430062 [3]湖北大学数学与计算机科学学院

出  处:《工程数学学报》2008年第3期531-538,共8页Chinese Journal of Engineering Mathematics

基  金:This research was supported by FHEC (Q200710001) and NSFC (10771053).

摘  要:推广性能是机器学习理论研究的主要目的之一。为了研究相依序列下采用ERM算法的学习机器的推广性能,本文基于β-混合序列建立了采用ERM算法的学习机器的经验风险到它的期望风险相对一致收敛速率的界。这个界不仅把基于独立序列下已有的结果推广到β-混合相依序列的情况,而且对β-混合相依序列现有的一些结论进行了改进。得到了β-混合相依序列下,采用ERM算法的学习机器的推广性能的界。The generalization performance is the main purpose of machine learning theoretical research. To study the generalization ability of ERM algorithms with dependent observations in this paper, we derive the bounds on the rate of relative uniform convergence of the empirical risks to their expected risks with beta-mixing dependent sequences, which extend the previous results with the independent and identically distributed (i.i.d.) sequence, and improve current results with beta-mixing dependent sequence. We also establish the bound that describes the generalization ability of ERM algorithm with beta-mixing sequences.

关 键 词:学习机器 ERM算法 相对一致收敛 混合序列 

分 类 号:O714.41[理学—晶体学]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象