检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:李平 仝涛 LI Ping;TONG Tao(School of Computer Science,Nanjing University of Posts and Telecommunications,Nanjing 210023,China)
机构地区:[1]南京邮电大学计算机学院,江苏南京210023
出 处:《计算机技术与发展》2025年第2期86-92,共7页Computer Technology and Development
基 金:国家自然科学基金青年基金项目(62006126);江苏省自然科学基金项目(BK20200740)。
摘 要:高斯过程隐变量模型(GPLVM)作为一种高效的贝叶斯无参降维模型,目前已广泛应用于多种应用中。然而传统的GPLVM模型为完全无监督降维模型,导致其无法有效嵌入监督信息,从而极大地限制了其在监督学习任务中的性能。同时GPLVM通常假设数据噪声服从高斯分布,因此无法建模离群点噪声,从而严重影响了模型的鲁棒性。针对上述问题,该文提出一种面向分类任务的鲁棒高斯过程隐变量模型。该模型通过引入基于原型的分类器并基于此构建隐变量先验分布,实现了有监督的数据降维和分类。同时,通过利用均值来建模数据的离群点噪声,进而实现了模型的鲁棒学习。在多个数据集上的实验结果表明,该模型在嵌入监督信息同时,可对离群点噪声进行有效建模,从而获得更优的分类准确率。Gaussian process latent variable model(GPLVM)as an effective Bayesian non-parametric model,has been widely used in many applications.However,since the conventional GPLVM is a fully unsupervised dimension reduction model,it cannot effectively embed the supervised information,limiting the application scope in the supervised learning tasks.Moreover,GPLVM assumes that the noise of data follows a Gaussian distribution,thus it cannot model the outlier noise,which reduces the robustness of the model.To address these problems,we propose a robust Gaussian process latent variable model for the classification task.This model utilizes the prototype based classifier and constructs a prior distribution of latent variables,implementing the supervised dimension reduction and classification.Furthermore,it uses the mean of Gaussian process to model the outlier noise and realize the robust learning of model.The experimental results on multiple dataset demonstrate the proposed model can effectively embed the supervised information and capture the outlier noise,obtaining more superior classification performance.
关 键 词:高斯过程 隐变量模型 监督学习 离群点噪声 鲁棒学习
分 类 号:TP311[自动化与计算机技术—计算机软件与理论]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.49