一类新的记忆梯度法及其收敛性  

A New Memory Gradient Method and Its Convergence

在线阅读下载全文

作  者:汤京永[1,2] 董丽[1] 

机构地区:[1]信阳师范学院数学与信息科学学院,河南信阳464000 [2]上海交通大学数学系,上海200240

出  处:《中山大学学报(自然科学版)》2010年第5期25-29,共5页Acta Scientiarum Naturalium Universitatis Sunyatseni

基  金:国家自然科学基金资助项目(10571109);山东省自然科学基金资助项目(Y2008A01);信阳师范学院青年基金资助项目(200947;200946)

摘  要:提出一类新的求解无约束优化问题的记忆梯度法。算法在每步迭代中利用当前和前面迭代点的信息产生下降方向,采用精确线性搜索或Wolfe非精确线性搜索产生步长,在较弱条件下证明了算法具有全局收敛性和线性收敛速率。数值试验表明算法是有效的。A new memory gradient method for unconstrained optimization problems is presented.This method makes use of the current and previous iterative information to generate a decent direction and uses exact linear search or Wolfe inexact linear search to define the step-size at each iteration.The global convergence and linear convergence rate are proved under some mild conditions.Numerical experiments show that the new method is efficient in practical computation.

关 键 词:无约束优化 记忆梯度法 全局收敛性 线性收敛速率 

分 类 号:O221.2[理学—运筹学与控制论]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象