检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]浙江工业大学计算机科学与技术学院,杭州310023 [2]浙江工业大学特种装备制造与先进加工技术教育部重点实验室,杭州310012
出 处:《计算机科学》2012年第B06期261-264,共4页Computer Science
基 金:国家自然科学基金项目(60874074);浙江省重大科技专项(2009C11039)资助
摘 要:多Agent强化学习算法的研究一直以来大多都是针对于合作策略,而NashQ算法的提出对非合作策略的研究无疑是一个重要贡献。针对在多Agent系统中,Nash平衡无法确保求得的解是Pareto最优解及其计算复杂度较高的问题,提出了基于Meta平衡的MetaQ算法。与NashQ算法不同,MetaQ算法通过对自身行为的预处理以及对其它Agent行为的预测来获取共同行为的最优策略。最后通过研究及气候合作策略游戏实验,证明了MetaQ算法在解决非合作策略的问题中有着很好的理论解释和实验性能。Multi-agent reinforcement learning algorithms aim at cooperation strategy,while NashQ is frequently mentioned as a pivotal algorithm to the study of non-cooperative strategies.In multi-agent systems,Nash equilibrium can not ensure the solutions obtained Pareto optimal,besides,the algorithm with high computation complexity.MetaQ algorithm was proposed in this paper.It is different from NashQ that MetaQ finds out the optimal solution by the pre-treatment of its own behavior and the prediction of the others behavior.In the end,a game-climate cooperation strategy was used in this paper,and the results shows that MetaQ algorithm,with impressive performance,is fit for non-cooperative problem.
关 键 词:强化学习 Meta平衡 NashQ 多AGENT系统
分 类 号:TP181[自动化与计算机技术—控制理论与控制工程]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.70