检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]太原理工大学计算机与软件学院,太原030024
出 处:《计算机应用研究》2009年第4期1241-1243,1265,共4页Application Research of Computers
基 金:国家自然科学基金资助项目(60773004);山西省自然科学基金资助项目(2006011030;2007011050)
摘 要:为了获得更好的决策树集成效果,在理论分析的基础上从数据的角度提出了一种基于代表性数据的决策树集成方法。该方法使用围绕中心点的划分(PAM)算法从原始训练集中提取出代表性训练集,由该代表性训练集来训练出多个决策树分类器,并由此建立决策树集成模型。该方法能选取尽可能少的代表性数据来训练出尽可能好的决策树集成模型。实验结果表明,该方法使用更少的代表性数据能获得比Bagging和Boosting还要高的决策树集成精度。To generate better ensemble output of decision trees, based on the theoretic analysis, this paper put forward a method used for ensemble of decision trees with representative data from the data point of view. This method extracted repre- sentative data via partition around medoids (PAM) algorithm from the original training set at first, then it trained a number of decision trees with the help of the representative data and built a ensemble mbdel with the trained decision trees. This method could select the less representative data and trained the better ensemble model of decision trees. The experiment resuhs show that this method can obtain higher ensemble precision of decision trees than Bagging or Boosting furthermore it uses less repre- sentative training set.
关 键 词:代表性数据 决策树 聚类 围绕中心点的划分 集成学习 BAGGING BOOSTING
分 类 号:TP301.6[自动化与计算机技术—计算机系统结构]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.145