检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:李豹[1]
机构地区:[1]中国人民银行芜湖市中心支行,安徽芜湖241000
出 处:《安徽工程大学学报》2014年第2期75-78,共4页Journal of Anhui Polytechnic University
摘 要:文章在rollout算法基础上研究了在多Agent MDPs的学习问题.利用神经元动态规划逼近方法来降低其空间复杂度,从而减少算法"维数灾".由于Rollout算法具有很强的内在并行性,文中还分析了并行求解方法.通过多级仓库库存控制的仿真试验,验证了Rollout算法在多Agent学习中的有效性.The paper researches Rollout algorithms (RA) for multi-Agent Markov decision processes (MDPs) in the framework of performance potentials theory. Neuro-dynamic programming (NDP) is used to reduce "curse of dimensionality" of algorithms, Since to rolout algorithms has a very strong intrinsic parallelism,the parallelization method of RA is employed to reduce the time of running algorithms. Finally,an example of multi-level inventory control by using RA under the supply chain environment is provided. The result shows that rollout algorithms are confirmed to be valid in multi-Agent learning.
关 键 词:ROLLOUT算法 神经元动态规划 多AGENT学习 性能势 并行算法
分 类 号:TP18[自动化与计算机技术—控制理论与控制工程]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:18.117.172.251