检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]山东师范大学信息科学与工程学院,济南250014 [2]山东省分布式计算机软件新技术重点实验室,济南250014
出 处:《山东师范大学学报(自然科学版)》2015年第1期20-23,共4页Journal of Shandong Normal University(Natural Science)
基 金:教育部博士点基金资助项目(20113704110001);山东省自然科学基金资助项目(ZR2010FM021);山东省科技攻关计划及泰山学者基金资助项目(2013GGX10125).
摘 要:提出一种自适应权值的支持向量机集成学习方法。该方法以Bagging方法为基础,结合部分AdaBoost算法权值更新的思想,给各个子分类器赋予权值,同时结合支持向量机本身的特性,对训练数据进行选择,加大训练样本的差异性。相比较传统的Bagging方法,结合SVM的特性来更有针对性的训练错分样本。文中使用4个UCI数据集进行对比实验,结果表明本文算法相比较传统的Bagging算法可以在一定程度上提高分类器的泛化能力。This paper presents the SVMensemble learning method based on adaptive weight.The method isbased on the Bagging method,and combined with the idea that AdaBoost algorithm updates the weights of sample.In order to increase the diversity of training samples,the algorithm gives each sub -classifier weight,and combinesthe characteristics of SVMto select the training data.Compared with the traditional Bagging method,the algorithmcan pay more attention to the wrong samples,by combining the characteristics of the SVM.Four UCI data sets areused to do the experiment by us.Compared with the Bagging algorithm,the result shows that the algorithm canimprove the generalization ability of the classifier to some extent.
关 键 词:支持向量机 BAGGING算法 ADABOOST算法 集成学习
分 类 号:TP391[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.222