检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:肖秀春 彭银桥 梅其祥[2] 闫敬文[3] XIAO Xiuchun;PENG Yinqiao;MEI Qixiang;YAN Jingwcn(a.College of Electronic and Information Engineering,b.College of Mathematics and Computer,Guangdong Ocean University,Zhanjiang 524088,China;College of Engineering,Shantou University,Shantou 515063,China)
机构地区:[1]广东海洋大学电子与信息工程学院,广东湛江524088 [2]广东海洋大学数学与计算机学院,广东湛江524088 [3]汕头大学工学院,广东汕头515063
出 处:《安徽工业大学学报(自然科学版)》2018年第2期153-159,共7页Journal of Anhui University of Technology(Natural Science)
基 金:广东省数字信号与图像处理重点实验室开放课题资助项目(2016GDDSIPL-02);广东海洋大学博士启动基金资助项目(E13428);广东海洋大学创新强校资助项目(Q15090)
摘 要:传统人工神经网络模型中,同一隐层各神经元的激励函数是相同的,这与人类神经元的实际情况不一致。为此,构造一种隐层各神经元激励函数互不相同的前向神经网络模型,采用一簇Chebyshev正交多项式序列作为其隐层各神经元的激励函数(简称Chebyshev前向神经网络),并为Chebyshev前向神经网络推导基于梯度下降法的网络参数训练算法。仿真实验表明,基于梯度下降法的Chebyshev前向神经网络算法能够有效调整网络参数,使之以较高的精度逼近具有复杂模式的样本数据集。In traditional artificial neural network model, the activation functions of neurons in the same hidden layer are the same, which is not consistent with the actual situation of human neurons. For this reason, and a forward neural network model with different activation functions of each neuron in the hidden layer was constructed, a cluster of Chebyshev orthogonal polynomials was used as the activation function of each neuron of the hidden layer (Chebyshev forward neural network). A training algorithm for network parameters based on gradient descent method was derived for Chebyshev feedforward neural network. The simulation experiment shows that the Cheby- shev forward neural network algorithm based on gradient descent method can effectively adjust the network parameters, and make it approximate in sample data set of complex patterns with high precision.
关 键 词:CHEBYSHEV多项式 神经网络 函数逼近 梯度下降法
分 类 号:TP241[自动化与计算机技术—检测技术与自动化装置]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.15