检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]广东石油化工学院计算机与电子信息学院,广东茂名525000 [2]太原科技大学电子信息工程学院,山西太原030000
出 处:《广东石油化工学院学报》2014年第4期18-21,共4页Journal of Guangdong University of Petrochemical Technology
基 金:国家自然科学基金项目"云计算中虚拟机资源与应用系统参数的协同自适应配置研究"(61272382)
摘 要:分层强化学习是为了解决强化学习"维数灾"的问题而提出的。Options的分层结构使Agent能更高效地完成学习任务,但通常Options的学习是在同一个状态空间的,Agent学习到的知识不能用于其他相似任务的状态空间。文章提出了迁移强化学习的框架,根据相关任务的一些共同特点,通过共享实现知识迁移;引入了代理空间的概念,该空间是相关任务的特征集,可以在以后的任务中重复利用。实验结果表明通过使用代理空间Options实现了知识迁移,显著提高了相关工作的性能。Hierarchical reinforcement learning is put forward to solve reinforcement learning “curse of dimensionality” problem .The struture of Options makes agent complete tasks efficiently ,but usually the learning of Options is in the same state space ,and the knowledge Agent learned can not be used for other similar tasks .This paper presents the framework of transfer in reinforcement learning according to some common features of related tasks ,which helps achieve knowledge transfer .The concept of agent-space being introduced ,this space is a set of features of related tasks ,which can be reused in future tasks .Experimental results show that achieving knowledge transfer through agent-space improves the performance of related work significantly .
分 类 号:TP181[自动化与计算机技术—控制理论与控制工程]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.117