BP算法收敛性分析及改进  被引量:3

Analysis and Improvement on Convergence of BP Algorithm

在线阅读下载全文

作  者:姜雷[1] 李新[1] 

机构地区:[1]重庆工程职业技术学院,重庆400037

出  处:《计算机时代》2010年第12期29-30,共2页Computer Era

摘  要:在标准BP神经网络的训练中,将误差函数作为权值调整的依据,使用固定学习率计算权值,这样的结果往往使网络的学习速度过慢甚至无法收敛。对此,从网络收敛的稳定性和速度的角度出发,分析了误差函数和权值修改函数,对算法中学习率的作用进行了具体的讨论,提出了一种根据误差变化对学习率进行动态调整的方法。该方法简单实用,能有效防止网络训练时出现发散,提高网络的收敛速度和稳定性。In the training of standard BP nerve network, the weights are adjusted according to error fimetion and calculated with the fixed learning rate, which often causes network learning speed too slow, even not to converge. For this, starting with the stability and speed of network convergence, we analyze the error function and weights adjusting function, discuss the effect of learning rate in the algorithm specifically, and present a method to adjust the learning rate dynamically according to the error changing. The method is simple and practical, it can prevent the network training from divergence effectively, improve the convergence speed and stability of the network.

关 键 词:BP算法 误差变化率 学习率 收敛速度 

分 类 号:TP273.22[自动化与计算机技术—检测技术与自动化装置]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象