检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]南京工业大学计算机系,南京210009 [2]南京航空航天大学计算机系,南京210016
出 处:《计算机科学》2004年第1期118-121,132,共5页Computer Science
基 金:国家自然科学基金(编号:69973021)
摘 要:本文在一类称为一般存储器神经网络(General Memory Neural Network(GMNN))的统一框架下来研究学习收敛性。该一般模型类的结构由三部分组成:输入空间量化、存储器地址产生器、查表或某种组合输出。当产生的地址是固定有限的个数以及网络输出是线性求和时,可以证明GMNN能在最小平方误差意义下收敛。CMAC(Cerebellar Model Articulation Controller)、SLLUP(Single-Layer Lookup Perceptrons)是该类模型的典型代表。本文的意义在于为构造新的基于局部学习的神经网络模型提供理论指导,最后给出了这种构造的两个例子——SDM(Sparse Distributed Memory)和SLLUP的两个推广模型。In this paper, we will concentrate on learning convergence of a class of neural network architectures named general memory neural network (GMNN) that consists of: input space quantization, memory address generator, combination output by memory lookup operations. If the number of generated addresses is fixed the output of network is given by summation operator, the learning convergence of GMNN to the least square error can be proved. Both CMAC(Cerebellar Model Articulation Controller) and SLLUP( Single-Layer Lookup Perccptrons)are examples of GMNN. The main purpose of this paper is that it can provide a theoretical instruction about how to construct a new neural network model with local learning. Finally two constructive examples, generalized SDM (Sparse Distributed Memory)and generalized SLLUP models ,are given.
关 键 词:一般存储器神经网络 学习收敛性 GMNN 网络结构 学习能力
分 类 号:TP183[自动化与计算机技术—控制理论与控制工程]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.75