无约束优化的超记忆梯度算法及其收敛特征(英文)  

Convergence of Super-memory Gradient Method for Unconstrained Optimization

在线阅读下载全文

作  者:汤京永[1] 董丽[1] 

机构地区:[1]信阳师范学院数学与信息科学学院,信阳464000

出  处:《数学理论与应用》2008年第4期1-5,共5页Mathematical Theory and Applications

摘  要:研究一种新的无约束优化超记忆梯度算法,算法在每步迭代中充分利用前面迭代点的信息产生下降方向,利用Wolfe线性搜索产生步长,在较弱的条件下证明了算法的全局收敛性。新算法在每步迭代中不需计算和存储矩阵,适于求解大规模优化问题。The paper presents a new super- memory gradient method for unconstrained optimization problems. This method makes use of the current and previous multi - step iterafive information to generate a new search direction and uses Wolfe line search to define the step - size at each iteration. The global convergence is proved under some mild conditions. It is suitable to solve large scale unconstmfined optimization problems because it avoids the computation and storage of some matrices.

关 键 词:无约束优化 超记忆梯度法 Wolfe线性搜索 全局收敛 

分 类 号:O224[理学—运筹学与控制论]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象