检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]南京财经大学信息工程学院,江苏南京210046
出 处:《山东大学学报(工学版)》2010年第6期8-11,共4页Journal of Shandong University(Engineering Science)
基 金:国家自然科学基金资助项目(70802025)
摘 要:强化学习的收敛速度随状态-动作空间的维数呈指数增长,因此在涉及大的状态空间时,强化学习算法的收敛速度非常慢以至不能满足应用需求。在许多应用环境中,若智能体之间存在合作关系,借助多个智能体进行分布式学习可以部分解决这一问题。利用进化算法,设计了智能体繁殖、消亡等操作,使得子代智能体能够继承父代智能体在状态空间的方向信息,从而更快地找到状态-动作空间的有效更新。仿真实验表明:算法比已有的强化学习方法具有更高的搜索效率和收敛速度。Reinforcement learning is not applicable concerning large state-actions, since that its convergence speed increases exponentially with the number of dimensions of state-action space. In many situations, this problem partially can be solved by utilizing a cooperation relationship among agents. An evolutional algorithm was put forward, which could rapidly find the effective updating of state-action pairs by the evolutionary operators such as reproduction as well as die out. Simulations proved that the algorithm performs was better than present multiagent cooperation learning algorithms.
分 类 号:TP181.1[自动化与计算机技术—控制理论与控制工程]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:18.223.114.251