检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]西北大学计算机科学与技术系,陕西西安710127 [2]西安交通大学计算机科学与技术系,陕西西安710049
出 处:《小型微型计算机系统》2008年第12期2334-2338,共5页Journal of Chinese Computer Systems
基 金:国家自然科学基金项目(60473136)资助;博士点基金项目(20040698028)资助
摘 要:在非平衡数据情况下,由于传统特征选择方法,如信息增益(Information Gain,IG)和相关系数(Correlation Coefficient,CC),或者不考虑负特征对分类的作用,或者不能显式地均衡正负特征比例,导致特征选择的结果下降.本文提出一种新的特征选择方法(Positive-Negative feature selection,PN),用于邻居词的选择,实现了文本中术语的自动抽取.本文提出的PN特征选择方法和CC特征选择方法相比,考虑了负特征;和IG特征选择方法相比,从特征t出现在正(负)训练文本的文本数占所有出现特征t的训练文本数比例的角度,分别显式地均衡了正特征和负特征的比例.通过计算特征t后面所跟的不同(非)领域概念个数占总(非)领域概念个数比值分别考察正、负特征t的重要性,解决了IG特征选择方法正特征偏置问题.实验结果表明,本文提出的PN特征选择方法优越于IG特征选择方法和CC特征选择.The performance of traditional feature selection algorithms, e.g. IG and CC, will be decreased because of either without considering the negative features, or without combining the positive features and negative features explicitly on imbalanced data. In this paper,a novel feature selection algorithm,named PN (Positive-Negative feature selection) ,is proposed for term extraction. Comparing with CC,PN considers the negative features,which are quite valuable in imbalanced data. Comparing with IG, PN considers the positive feature and negative feature independently and explicitly, and the values of positive and negative features are adjusted by compute the proportion of number of terms followed by feature t,which solved the problem of the much larger values of positive features. The experimental results show that the performance of PN algorithm outperforms those of CC and IG.
分 类 号:TP316[自动化与计算机技术—计算机软件与理论]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:13.58.173.156