检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
出 处:《上海交通大学学报》2001年第2期288-292,共5页Journal of Shanghai Jiaotong University
基 金:国家自然科学基金!资助项目 (3930 0 70 )
摘 要:MAS的协作机制研究 ,当前比较适用的研究框架是非零和 Markov对策及基于 Q-算法的强化学习 .但实际上在这种框架下的 Agent强调独立学习而不考虑其他 Agent的行为 ,故 MAS缺乏协作机制 .并且 ,Q-算法要求 Agent与环境的交互时具有完备的观察信息 ,这种情况过于理想化 .文中针对以上两个不足 ,提出了在联合行动和不完备信息下的协调学习 .理论分析和仿真实验表明 ,协调学习算法具有收敛性 .Non zero-sum Markov game and reinforcement learning based on Q-algorithm is a feasible frame for the research on the mechanism of multiagent system's cooperation. In fact, the independent learning is focused on individual agent regardless of other agents' actions under this frame. So, the cooperative mechanism is deficient. And, it is over idealized that the perfect observed information is required when agents are interacting with environment. A cooperated learning under joined action and imperfect information was proposed for solving these two problems. Convergence of the improved algorithm was proved.
关 键 词:MARKOV对策 Q-学习算法 协调学习 多智能体系统 强化学习
分 类 号:TP18[自动化与计算机技术—控制理论与控制工程]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.3