检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]东华大学理学院,上海
出 处:《应用数学进展》2024年第2期569-583,共15页Advances in Applied Mathematics
摘 要:近年来,基于朗之万蒙特卡罗方法的随机梯度下降算法得到了广泛应用。这些算法通过在梯度的估计中注入适当的高斯噪声以实现在非凸优化问题中的全局收敛。随机梯度哈密尔顿蒙特卡罗(SGHMC)是随机梯度下降带有动量的一种变体,通常的研究以样本数据相互独立的假设为前提来分析SGHMC算法的收敛性,然而实际中的样本数据往往存在相关性。本文在数据流具有相关性(满足一定的条件混合特性)的条件下,给出了SGHMC算法的非渐进估计,建立了全局Lipschtiz条件下SGHMC算法的收敛性定理,得到了迭代分布与目标分布之间Wasserstein距离的上界。In recent years, stochastic gradient descent algorithms based on the Langevin Monte Carlo method have been widely applied, which achieve global convergence in non-convex optimization problems by injecting appropriate Gaussian noise into the gradient estimates. Stochastic gradient Hamiltoni-an Monte Carlo (SGHMC) is a variant of stochastic gradient descent with momentum. Usually, studies analyze the convergence of algorithm based on the assumption that the sample data are i.i.d. How-ever, in practice, sample data may be dependent. This paper provides non-asymptotic estimates for SGHMC algorithm under the condition that the data streams are dependent (satisfying a certain conditional mixing property), establishes a convergence theorem for SGHMC algorithm under the global Lipschitz condition, and obtains an upper bound of the Wasserstein distance between the law of algorithm’s iterates and the target distribution.
关 键 词:随机梯度哈密尔顿蒙特卡罗 非渐进估计 非凸优化 相关数据流
分 类 号:TP3[自动化与计算机技术—计算机科学与技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.49