检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]燕山大学信息科学与工程学院,秦皇岛066004
出 处:《模式识别与人工智能》2013年第4期351-356,共6页Pattern Recognition and Artificial Intelligence
基 金:国家自然科学基金项目(No.61071199);河北省自然科学基金项目(No.F2010001297);第二批中国博士后基金特别项目(No.200902356)资助
摘 要:由于高维数据通常存在冗余和噪声,在其上直接构造覆盖模型不能充分反映数据的分布信息,导致分类器性能下降.为此提出一种基于精简随机子空间多树集成分类方法.该方法首先生成多个随机子空间,并在每个子空间上构造独立的最小生成树覆盖模型.其次对每个子空间上构造的分类模型进行精简处理,通过一个评估准则(AUC值),对生成的一类分类器进行精简.最后均值合并融合这些分类器为一个集成分类器.实验结果表明,与其它直接覆盖分类模型和bagging算法相比,多树集成覆盖分类器具有更高的分类正确率.Due to the redundancy and the noise in high-dimensional data, a covering model constructed from these data can not reflect their distribution information, which leads to the performance degradation of one-class classifiers. To solve this problem, a pruning random subspace ensemble multi-spanning tree method is proposed. Firstly, several random subspaces are created, and minimum spanning tree covering models are constructed in each subspace respectively. Next, pruning ensembles are applied to each classifier by using an evaluation criterion. Finally, these subspace classifiers are integrated into an ensemble classifier by mean combining. Experimental results show that the proposed covering classifier by ensemble multi-trees has a better correct rate in classification than other direct covering classifiers and bagging algorithm
关 键 词:一类分类器 随机子空间 集成学习 最小生成树 精简集成
分 类 号:TP391.4[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.15