检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:张琴[1] ZHANG Qin(Department of Information Technology and Engineering,Fuzhou Polytechnic,Fuzhou 350108)
机构地区:[1]福州职业技术学院信息技术工程系,福州350108
出 处:《现代计算机》2020年第32期43-47,共5页Modern Computer
基 金:榕职院教改项目(No.2020ZXKC023)。
摘 要:卷积神经网络在图像分类领域中得到广泛的应用,激活函数是卷积神经网络模型的重要组成部分,"激活的神经元"使CNN具备分层的非线性特征学习能力。针对现有的激活函数存在"梯度消失"、"神经元坏死"和不易收敛等缺陷,设计一种新的非线性非饱和的激活函数SReLU。基于Keras深度学习框架对不同的激活函数分别在MINIST数据集和CIFA-100数据集上进行对比研究,实验结果表明,SReLU在两种不同的数据集上都取得相对最优的效果。Convolutional neural network has been widely used in the field of image classification.Activation function is an important part of convolutional neural network model.The activated neuron makes CNN have the ability of layered nonlinear feature learning.A new nonlinear and unsaturated activation function,SReLU,is designed to solve the problems of gradient vanishing,neuron necrosis and non convergence.Based on keras deep learning framework,different activation functions are compared on MINIST data set and CIFA-100 data set.Experimental results show that srelu achieves the best results on two different data sets.
分 类 号:TP183[自动化与计算机技术—控制理论与控制工程] TP391.41[自动化与计算机技术—控制科学与工程]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.63