检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]西南师范大学计算机与信息科学学院
出 处:《计算机科学》2006年第2期201-204,共4页Computer Science
基 金:河南省自然科学资助项目(0511012500);教育部科技司资助项目"基于禁忌搜索的模糊神经控制研究"。
摘 要:提出了一种改进神经网络泛化能力的新方法——“缩放法”。这种方法通过对输入向量的缩放处理,来缩小或模糊化训练样本和新的模式之间的差别,从而使神经网络的泛化能力得以提高。文中提出的新算法——α算法,可以找到合适的缩放因子,进而得到泛化能力更强的新网络。一些实验例证了“缩放法”和α算法的有效性,并从理论上对其进行了分析和讨论。实验和分析表明,这种方法简单可靠,对许多神经网络和模式分类问题效果明显。A new approach to improve the generalization ability of neural network is presented based on an angle of fuzzy theory. This approach is put into effect through shrinking or magnifying the input vector, thereby reducing the difference between training set and testing set. It is called "Shrinklng-Magnifying Approach"(SMA). At the same time in this paper, a new algorithm--α-algorithm is presented in order to find out the appropriate shrinking factor a and obtain better generalization ability of neural network. Quite a few simulation experiments serve to study about SMA andaalgorithm. The results of experiments and analyses show that the new approach is not only simpler and easier, but also is applicable to many neural networks and many classification problems.
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.31