检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]太原理工大学计算机科学与技术学院,山西太原030024
出 处:《计算机工程与设计》2012年第9期3558-3562,共5页Computer Engineering and Design
基 金:国家自然科学基金项目(60873139);山西省自然科学基金项目(2008011040);虚拟技术与系统国家重点实验室基金项目(SKVR-KF-09-04)
摘 要:针对多Agent强化学习研究中面临的非马尔可夫环境和维数灾难问题,提出了一种半马氏博弈模型和MAHRL(multi-agent hierarchical reinforcement learning)协同框架。该模型弱化了系统对外界环境的要求,引入了随机时间步和通信策略的概念,更符合MAHRL研究的实际情况;协同框架中分别用SMG和SMDP模型对不同子任务进行建模,明确了Agent之间的协同机制。通过实验证明了SMG模型和协同框架的有效性和优越性。A kind of Semi-Markov Game model and collaborative framework is presented,which can resolve some problems of multi-agent reinforcement learning,such as the non-Markov nature,curse of dimensionality,etc.The model has weakened the requirements to the environment and imported the conception of the stochastic time step and communication strategy.The framework uses SMG and SMDP models to describe the different subtask respectively and defines the coordination mechanism among Agents.The experiment proves the validity and superiority of SMG model and collaborative framework.
关 键 词:多AGENT强化学习 分层强化学习 部分感知 半马氏博弈模型 协同框架
分 类 号:TP18[自动化与计算机技术—控制理论与控制工程]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.7