检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]广西大学计算机与电子信息学院,南宁530004
出 处:《计算机应用研究》2011年第11期4074-4077,共4页Application Research of Computers
基 金:国家自然科学基金资助项目(60763013);广西人才小高地创新团队计划资助项目(桂教人[2007]71号);广西大学科研基金资助项目(X081017)
摘 要:在利用梯度算法训练Pi-sigma神经网络时,存在因权值选取过小导致收敛速度过慢的问题,而采用一般罚函数法虽然可以克服这个缺点,但要求罚因子必须趋近于∞且惩罚项绝对值不可微,从而导致数值求解困难。为克服以上缺点,提出了一种基于乘子法的随机单点在线梯度算法。利用最优化理论方法,将有约束问题转换为无约束问题,利用乘子法来求解网络误差函数。从理论上分析了算法的收敛速度和稳定性,仿真实验结果验证了算法的有效性。When the on-line gradient algotithm is used for training Pi-sigma neural netrork,there is a problem that the chosen weights may be very small,resulting in a very slow convergence.The shortcoming can be overcome by the penalty method,but there are the difficulties in numerical solution,caused by the facts that the penalty factor must approach infinity and the absolute value of penalty term is nondifferentiable.Based on Lagrange multipler algorithm,this paper proposed a stochastic simple point on-line gradient algorithm to overcome the deficiencies of small weights and penalty function.Using the optimized theory method,transformed the restrained question into the non-constraint question.Proved the convergence rate and stability of the algorithm.The simulated experimental results indicate that the algorithm is efficient.
关 键 词:PI-SIGMA神经网络 梯度算法 乘子法 收敛速度 稳定性
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.198