一种使用log函数的新型修正激活单元LogReLU  被引量:6

LogReLU:A New Rectified Activation Unit Using Log Funcion

在线阅读下载全文

作  者:王多民 刘淑芬[1] 

机构地区:[1]吉林大学计算机科学与技术学院,长春130012

出  处:《吉林大学学报(理学版)》2017年第3期617-622,共6页Journal of Jilin University:Science Edition

基  金:国家自然科学基金(批准号:61472160);国家科技支撑计划项目(批准号:2014BAH29F03)

摘  要:提出一种新型校正激活函数的改进,该新型校正激活函数带有一个可变参数,使用对数函数对正区域的梯度进行矫正,解决了预测准确率较低的问题.改进的激活函数使用两个不同参数分别控制正区域和负区域的梯度.通过对两个不同数据集进行仿真实验的结果表明,新提出的两种方法效果均好于原始的修正线性单元,带有两个参数的改进使验证错误率分别降低了0.14%和5.33%.We proposed a new revised rectified activation function. The new rectified activation function has a changeable parameter, and the logarithmic function was used to rectify the gradient in positive region, which solved the problem of low accuracy of prediction. The improved activation function used two different parameters to control the gradient in positive region and negative region, respectively. The results of simulation experiments on two different data sets show that the effectiveness of the two new methods is better than that of the original rectified linear units. With the improvement of two parameters, the verification error rate is reduced by 0.14% and 5.33%, respectively.

关 键 词:人工智能 卷积神经网络 激活函数 ReLU 

分 类 号:TP301.6[自动化与计算机技术—计算机系统结构]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象