学习收敛性

作品数:6被引量:13H指数:2
导出分析报告
相关领域:自动化与计算机技术更多>>
相关作者:彭宏京邢春峰柳重堪王士同徐宁寿更多>>
相关机构:南京航空航天大学北京航空航天大学华东船舶工业学院北京联合大学更多>>
相关期刊:《北京航空航天大学学报》《北京联合大学学报》《软件学报》《计算机科学》更多>>
相关基金:国家自然科学基金The Royal Society更多>>
-

检索结果分析

结果分析中...
条 记 录,以下是1-6
视图:
排序:
关于一般存储器神经网络的学习收敛性研究
《计算机科学》2004年第1期118-121,132,共5页彭宏京 陈松灿 
国家自然科学基金(编号:69973021)
本文在一类称为一般存储器神经网络(General Memory Neural Network(GMNN))的统一框架下来研究学习收敛性。该一般模型类的结构由三部分组成:输入空间量化、存储器地址产生器、查表或某种组合输出。当产生的地址是固定有限的个数以及网...
关键词:一般存储器神经网络 学习收敛性 GMNN 网络结构 学习能力 
新的基于mass-assignment的模糊CMAC神经网络及其学习收敛性(英文)被引量:9
《软件学报》2001年第6期816-821,共6页王士同 J.F.Baldwin T.P.Martin2 
国家自然科学基金 No.6 98 430 0 2 &&
基于 J.F.Baldwin等人提出的 mass- assignment理论 ,提出了新的基于 mass- assignment的模糊 CMAC神经网络 ,接着研究了其学习规则 .理论研究结果揭示出 ,此新模糊 CMAC是一个全局逼近器 ,并且具有学习收敛性 .故此新模糊 CMAC有非常...
关键词:模糊CMAC 学习规则 mass-assignment理论 学习收敛性 神经网络 
具有微分输出的神经网络New-CMAC及其学习收敛性(英文)
《软件学报》2001年第5期666-667,共2页王士同 J.F.Baldwin T.P.Martin2 
国家自然科学基金No.6 98 30 0 4&&
基于传统的 CMAC神经网络和局部加权回归技术 ,提出了与传统 CMAC(cerebellar model articulation com-puter)有着同样存储空间量的改进的新 CMAC网络 New- CMAC,它具有传统的输出和具有其微分信息的输出 ,因而更适合于自动控制 .接着 ...
关键词:模糊泛集合 学习规则 学习收敛性 神经网络 微分输出 New-CMAC 
一种新的联想记忆系统的学习收敛性(Ⅱ)被引量:1
《北京联合大学学报》2000年第4期48-49,共2页邢春峰 柳重堪 
国家自然科学基金!资助项目 (6 94740 15 )
基于牛顿向前插公式的新的高阶联想记忆系统 (NFI AMS) ,可以用来实现任意阶多变量多项式函数的无误差逼近 ,证明了对于任意多变量连续函数均可通过一组与子区域个数相同的学习数据 ,NFI AMS的学习总是以任意精度收敛的。
关键词:神经网络 联想记忆系统 学习收敛性 
关于广义模糊CMAC学习收敛性的理论结果(英文)被引量:6
《软件学报》2000年第11期1440-1450,共11页王士同 Baldwin J.F. Martin T.P. 
Project is supported by the British Royal Society
提出了广义模糊 CMAC( cerebellar model articulation controller)神经网络 ,并导出了其学习的充分条件 .最后 ,证明了广义模糊 CMAC在平方误差意义下的学习收敛性 .研究结果为广义模糊 CMAC的广泛应用提供了基础 .
关键词:CMAC 学习收敛 模糊泛集合 学习规则 神经网络 
一种新的联想记忆系统及其学习收敛性被引量:1
《北京航空航天大学学报》1998年第1期95-99,共5页邢春峰 柳重堪 徐宁寿 
国家自然科学基金
提出了一种新的联想记忆系统——基于牛顿前向插公式的联想记忆系统(NFI-AMS),用以实现在任意阶多变量多项式函数的高精度逼近,设计了相应的学习方法,并证明了在通常情况下对于任意多变量连续函数,NFI-AMS的学习总...
关键词:联想存储器 牛顿插值 学习系统 神经网络 收敛 
检索报告 对象比较 聚类工具 使用帮助 返回顶部