关于一般存储器神经网络的学习收敛性研究  

Research on Learning Convergence of General Memory Neural Network

在线阅读下载全文

作  者:彭宏京[1] 陈松灿[2] 

机构地区:[1]南京工业大学计算机系,南京210009 [2]南京航空航天大学计算机系,南京210016

出  处:《计算机科学》2004年第1期118-121,132,共5页Computer Science

基  金:国家自然科学基金(编号:69973021)

摘  要:本文在一类称为一般存储器神经网络(General Memory Neural Network(GMNN))的统一框架下来研究学习收敛性。该一般模型类的结构由三部分组成:输入空间量化、存储器地址产生器、查表或某种组合输出。当产生的地址是固定有限的个数以及网络输出是线性求和时,可以证明GMNN能在最小平方误差意义下收敛。CMAC(Cerebellar Model Articulation Controller)、SLLUP(Single-Layer Lookup Perceptrons)是该类模型的典型代表。本文的意义在于为构造新的基于局部学习的神经网络模型提供理论指导,最后给出了这种构造的两个例子——SDM(Sparse Distributed Memory)和SLLUP的两个推广模型。In this paper, we will concentrate on learning convergence of a class of neural network architectures named general memory neural network (GMNN) that consists of: input space quantization, memory address generator, combination output by memory lookup operations. If the number of generated addresses is fixed the output of network is given by summation operator, the learning convergence of GMNN to the least square error can be proved. Both CMAC(Cerebellar Model Articulation Controller) and SLLUP( Single-Layer Lookup Perccptrons)are examples of GMNN. The main purpose of this paper is that it can provide a theoretical instruction about how to construct a new neural network model with local learning. Finally two constructive examples, generalized SDM (Sparse Distributed Memory)and generalized SLLUP models ,are given.

关 键 词:一般存储器神经网络 学习收敛性 GMNN 网络结构 学习能力 

分 类 号:TP183[自动化与计算机技术—控制理论与控制工程]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象