检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
出 处:《控制理论与应用》2000年第5期660-664,共5页Control Theory & Applications
基 金:国家自然科学基金!(6 96 740 0 5 )
摘 要:讨论模型未知的平均报酬强化学习算法 .通过结合即时差分学习与R学习算法 ,将折扣问题中的一些方法推广到了平均准则问题中 ,提出了两类算法 :R(λ)学习与截断即时差分TTD(λ)学习 .现有的R学习可视为R(λ)学习和TTD(λ)学习当λ=0时的一个特例 .仿真结果表明 ,λ取中间值的R(λ)和TTD(λ)学习比现有的方法在可靠性与收敛速度上均有提高 .Two model free multi step average reward reinforcement learning algorithms, R(λ) learning and TTD(λ) learning, are proposed. Two novel incremental algorithms incorporate the R learning with the temporal differences TD(λ) learning algorithm for average reward problems. They are also the natural extensions of the counterpart algorithms for discounted reward reinforcement learning into the average reward cases. Simulation results show that R(λ) learning and \{TTD(λ) learning\} with intermediate values of λ have much better performance than the simple R learning.
分 类 号:TP18[自动化与计算机技术—控制理论与控制工程]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.127