关于相关数据流的随机梯度哈密尔顿蒙特卡罗算法的非渐近估计  

Non-Asymptotic Estimates for Stochastic Gradient Hamiltonian Monte Carlo Algorithm with Dependent Data Streams

在线阅读下载全文

作  者:杨金圆 胡良剑[1] 

机构地区:[1]东华大学理学院,上海

出  处:《应用数学进展》2024年第2期569-583,共15页Advances in Applied Mathematics

摘  要:近年来,基于朗之万蒙特卡罗方法的随机梯度下降算法得到了广泛应用。这些算法通过在梯度的估计中注入适当的高斯噪声以实现在非凸优化问题中的全局收敛。随机梯度哈密尔顿蒙特卡罗(SGHMC)是随机梯度下降带有动量的一种变体,通常的研究以样本数据相互独立的假设为前提来分析SGHMC算法的收敛性,然而实际中的样本数据往往存在相关性。本文在数据流具有相关性(满足一定的条件混合特性)的条件下,给出了SGHMC算法的非渐进估计,建立了全局Lipschtiz条件下SGHMC算法的收敛性定理,得到了迭代分布与目标分布之间Wasserstein距离的上界。In recent years, stochastic gradient descent algorithms based on the Langevin Monte Carlo method have been widely applied, which achieve global convergence in non-convex optimization problems by injecting appropriate Gaussian noise into the gradient estimates. Stochastic gradient Hamiltoni-an Monte Carlo (SGHMC) is a variant of stochastic gradient descent with momentum. Usually, studies analyze the convergence of algorithm based on the assumption that the sample data are i.i.d. How-ever, in practice, sample data may be dependent. This paper provides non-asymptotic estimates for SGHMC algorithm under the condition that the data streams are dependent (satisfying a certain conditional mixing property), establishes a convergence theorem for SGHMC algorithm under the global Lipschitz condition, and obtains an upper bound of the Wasserstein distance between the law of algorithm’s iterates and the target distribution.

关 键 词:随机梯度哈密尔顿蒙特卡罗 非渐进估计 非凸优化 相关数据流 

分 类 号:TP3[自动化与计算机技术—计算机科学与技术]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象