检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:张辉[1] 杨玉珍[1] 李振龙[1] 陈阳舟[1]
机构地区:[1]北京工业大学自主技术与智能控制研究中心,北京100022
出 处:《武汉理工大学学报(交通科学与工程版)》2007年第6期1121-1124,共4页Journal of Wuhan University of Technology(Transportation Science & Engineering)
基 金:北京市教委科技发展计划基金项目(批准号:TM2004100051);北京市自然科学基金项目(批准号:4042006)资助
摘 要:介绍了强化学习和分布式Q学习的基本思想,并将分布式Q学习应用到区域交通协调控制中,通过对其进行研究和分析,提出一种适合于区域交通协调控制的奖惩函数和权值函数.在微观交通仿真软件Paramics上对控制算法进行仿真实验,实验结果说明基于分布式Q学习的区域交通协调控制算法的效果优于传统的定时控制,从而也验证了奖惩函数以及权值函数的有效性.The basic theory of reinforcement and the idea of distributed Q-Learning are introduced in this paper. Based on the analysis of distributed Q-Learning in the urban traffic coordination control, reward function and weight function are presented. The experiment of the control arithmetic are carried out with the microscopic traffic simulation software Paramics. The experimental results show that this method is better than the traditional fixed control which proves the validity of the reward function and weight function.
分 类 号:TP391.6[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.46