检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:刘建伟[1] 任正平[1] 刘泽宇[2] 黎海恩 罗雄麟[1]
机构地区:[1]中国石油大学自动化研究所,北京102249 [2]中国科学院软件研究所基础软件国家工程研究中心,北京100190
出 处:《自动化学报》2015年第8期1419-1437,共19页Acta Automatica Sinica
基 金:中国石油大学(北京)基础学科研究基金项目(JCXK-2011-07)资助~~
摘 要:稀疏化学习能显著降低无向图模型的参数学习与结构学习的复杂性,有效地处理无向图模型的学习问题.两两关系马尔科夫网在多值变量情况下,每条边具有多个参数,本文对此给出边参数向量的组稀疏化学习,提出自适应组稀疏化,根据参数向量的模大小自适应调整惩罚程度.本文不仅对比了不同边势情况下的稀疏化学习性能,为了加速模型在复杂网络中的训练过程,还对目标函数进行伪似然近似、平均场自由能近似和Bethe自由能近似.本文还给出自适应组稀疏化目标函数分别使用谱投影梯度算法和投影拟牛顿算法时的最优解,并对比了两种优化算法进行稀疏化学习的性能.实验表明自适应组稀疏化具有良好的性能.Sparse learning can significantly reduce the complexity of parameter learning and structure learning and effectively deal with learning problems of undirected graphical models. In the case of pairwise Markov network, in which each variable has more than two values, the number of parameters associated with an edge is more than one. This paper proposes a group sparse learning approach for the parameters associated with edges, and puts forward an adaptive group sparse learning algorithm, which can adaptively adjust the degree of penalty according to the norm of the parameters vector. This paper compares the performance of sparse learning using different edge potentials. In order to speed up the training process, three approximate object functions are given, including pseudo likelihood approximation, mean field approximation and Bethe free energy approximation. Two optimization algorithms, i.e., projected quasi-Newton algorithm and spectral projected gradient algorithm, are also compared. Experimental results show that the proposed adaptive group sparse learning algorithm outperforms the normal sparse learning ones.
关 键 词:无向图模型 两两马尔科夫网 稀疏化学习 自适应组稀疏化
分 类 号:TP181[自动化与计算机技术—控制理论与控制工程]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:13.59.196.41