提高神经网络泛化能力的研究  被引量:4

Research to Improve the Generalization Ability of Neural Networks

在线阅读下载全文

作  者:冯乃勤[1,2] 王芳[1] 邱玉辉[1] 

机构地区:[1]西南大学计算机与信息科学学院 [2]河南师范大学计算机与信息科学学院,新乡453007

出  处:《计算机工程与应用》2006年第4期38-41,共4页Computer Engineering and Applications

基  金:河南省自然科学基金资助项目(编号:0511012500);教育部科技司资助项目:基于禁忌搜索的模糊神经控制研究

摘  要:从模糊理论的角度出发,提出了一种改进神经网络泛化能力的新方法—“缩放法”。这种方法通过对输入向量的缩放处理,来缩小或模糊化训练样本和新的模式之间的差别,从而使神经网络的泛化能力得以提高。文中提出的新算法—α算法,可以找到合适的缩放因子,进而得到泛化能力更强的新网络。一些实验例证了“缩放法”和α算法的有效性,并从理论上对其进行了初步分析和讨论。A new approach to improve the generalization ability of neural network is presented based on fuzzy theory. This approach is implemented through shrinking or magnifying the input vector,thereby reducing the difference between training set and testing set.It is called"Shrinking-Magnlfying Approacb"(SMA).At the same time,α-algorithm is presented in order to find out the appropriate shrinking factor α and obtain better generalization ability of neural network.Quite a few experiments serve to study about SMA and α-algorithm.The experiment results are discussed in detail,and the functional pi'inciple of SMA is analyzed in theory.

关 键 词:神经网络 泛化 误识率 模糊理论 

分 类 号:TP183[自动化与计算机技术—控制理论与控制工程]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象