检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]清华大学计算机科学与技术系智能技术与系统国家重点实验室,北京100084
出 处:《清华大学学报(自然科学版)》2003年第1期120-124,共5页Journal of Tsinghua University(Science and Technology)
基 金:国家重点基础研究发展规划"九七三"资助项目(G1998030509);国家自然科学基金重点项目(60135010)
摘 要:大量数据下支持向量机(SVM)的训练算法是SVM研究的一个重要方向和广大研究者关注的焦点。该文回顾了近几年来这一领域的研究情况。该文从分析SVM训练问题的实质和难点出发,结合目前一些主要的SVM训练方法及它们之间的联系,重点阐述当前最有代表性的一种算法——序贯最小优化(SMO)算法及其改进算法。从中可以看到,包括SMO在内的分解算法通过求解一系列规模较小的子问题逐步逼近最优解,从而避免存储整个Hessian矩阵,是解决大规模SVM训练问题的主要方法。而工作集的选择对于分解算法的收敛与否和收敛速度至关重要。 Training algorithm for largescale support vector machines (SVM) is an important and active subject in the field of SVM research. The approaches in the past few years are introduced in this review. After the analysis of the difficulties in training SVM and a survey of some popular methods and their relationship, sequential minimal optimization (SMO) and its improved versions are discussed in detail. In decomposition algorithms such as SMO, the optimal solution is approached by solving a series of smallscale subproblems to avoid keeping the whole Hessian matrix in memory. Therefore, working set selection is crucial to the convergence rate of decomposition algorithms.
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.117