ReLU激活函数优化研究  被引量:111

Research on optimization of ReLU activation function

在线阅读下载全文

作  者:蒋昂波 王维维[1] 

机构地区:[1]浙江大学超大规模集成电路设计研究所,浙江杭州310027

出  处:《传感器与微系统》2018年第2期50-52,共3页Transducer and Microsystem Technologies

基  金:国家"863"计划资助项目(2012AA041701);浙江省教育厅资助项目(Y201010035)

摘  要:门控循环单元(GRU)是一种改进型的长短期记忆模型(LSTM)结构,有效改善了LSTM训练耗时的缺点。在GRU的基础上,对激活函数sigmoid,tanh,ReLU等性能进行了比较和研究,详细分析了几类激活函数的优缺点,提出了一种新的激活函数双曲正切线性单元(TLU)。实验证明:新的激活函数既能显著地加快深度神经网络的训练速度,又有效降低训练误差。Gated recurrent unit( GRU) is an improved long short term memory model( LSTM) architecture,it is effective to improve training time-consuming features of LSTM. Performance of some activation functions such as sigmoid tanh,rectified linear units( ReLU) are compared and researched on the basis of GRU architecture and analyze their advantages and disadvantages in detail. Propose a novel activation function named tanh linear unit( TLU). The experiment shows that the new activation function can not only speed up training speed of deep neural networks,but also effectively reduce training error.

关 键 词:门控循环单元 神经网络 激活函数 双曲正切线性单元 

分 类 号:TP301.6[自动化与计算机技术—计算机系统结构] TN911[自动化与计算机技术—计算机科学与技术]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象