检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]广西大学计算机与电子信息学院,南宁530004
出 处:《计算机工程与应用》2013年第4期43-46,共4页Computer Engineering and Applications
基 金:国家自然科学基金(No.60763013);广西人才小高地创新团队计划(No.[2007]71);广西教育厅基金项目(No.TLZ100715);广西大学科研基金项目(No.X081017)
摘 要:传统的梯度算法存在收敛速度过慢的问题,针对这个问题,提出一种将惩罚项加到传统误差函数的梯度算法以训练递归pi-sigma神经网络,算法不仅提高了神经网络的泛化能力,而且克服了因网络初始权值选取过小而导致的收敛速度过慢的问题,相比不带惩罚项的梯度算法提高了收敛速度。从理论上分析了带惩罚项的梯度算法的收敛性,并通过实验验证了算法的有效性。In this paper, a new gradient training algorithm is presented to train the recurrent pi-sigma neural networks, in which a penalty is added to the conventional error function. The algorithm can not only improve the generalization of neural networks, but also avoid the slow convergence caused by the case that the original weights are chosen too small, achieving a better conver- gence compared to the traditional gradient algorithm without the penalty term. Moreover, the convergence of the algorithm is also studied, and finally the simulated experimental results indicates that the algorithm is efficient.
关 键 词:递归pi-sigma神经网络 梯度算法 惩罚项 收敛性
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.49