宋梅萍

作品数:5被引量:45H指数:4
导出分析报告
供职机构:哈尔滨工程大学计算机科学与技术学院更多>>
发文主题:多机器人分布式控制系统多移动机器人路径规划博弈框架更多>>
发文领域:自动化与计算机技术更多>>
发文期刊:《控制与决策》《哈尔滨工程大学学报》《机器人》《控制理论与应用》更多>>
所获基金:中国科学院重点实验室基金国防科技工业技术基础科研项目更多>>
-

检索结果分析

署名顺序

  • 全部
  • 第一作者
结果分析中...
条 记 录,以下是1-5
视图:
排序:
一般和博弈中的合作多agent学习被引量:7
《控制理论与应用》2007年第2期317-321,共5页宋梅萍 顾国昌 张国印 刘海波 
理性和收敛是多agent学习研究所追求的目标,在理性合作的多agent系统中提出利用Pareto占优解代替非合作的Nash平衡解进行学习,使agent更具理性,另一方面引入社会公约来启动和约束agent的推理,统一系统中所有agent的决策,从而保证学习的...
关键词:多AGENT学习 一般和随机博弈 NASH平衡 PARETO占优 Q-学习 
随机博弈框架下的多agent强化学习方法综述被引量:13
《控制与决策》2005年第10期1081-1090,共10页宋梅萍 顾国昌 张国印 
多agent学习是在随机博弈的框架下,研究多个智能体间通过自学习掌握交互技巧的问题.单agent强化学习方法研究的成功,对策论本身牢固的数学基础以及在复杂任务环境中广阔的应用前景,使得多agent强化学习成为目前机器学习研究领域的一个...
关键词:多AGENT系统 随机博弈 强化学习 
移动机器人的自适应式行为融合方法被引量:5
《哈尔滨工程大学学报》2005年第5期586-590,613,共6页宋梅萍 顾国昌 张汝波 
介绍了一种基于先验知识的强化学习方法,它将传统的规则控制方法和强化学习方法相结合,在保留了已知的部分规则的情况下,利用强化学习方法对基本行为的融合机制进行了完善;同时,利用已知的规则知识对学习器进行指导,保证了学习向正确方...
关键词:强化学习 多机器人 行为融合 
多机器人编队系统体系结构的设计与性能分析被引量:1
《哈尔滨工程大学学报》2005年第3期311-315,共5页王醒策 顾国昌 张汝波 宋梅萍 
中国科学院沈阳自动化所机器人学重点实验室基金资助项目(RL200106);国防科学技术工业委员会基础研究基金资助项目(51416070101CB0107).
根据多机器人智能编队的要求,设计分层多机器人体系结构.该结构主要有3层:协作任务层、协调行为层、动作控制层.协作任务层应用势场栅格法增强路径的安全性和可靠性并降低了计算复杂度;协调行为层应用强化学习法增强了机器人群体的智能...
关键词:多机器人 智能体系统 体系结构 
多移动机器人协作任务的分布式控制系统被引量:19
《机器人》2003年第5期456-460,共5页宋梅萍 顾国昌 张汝波 
中国科学院沈阳自动化所机器人学重点实验室基金资助 (项目编号 :RL2 0 0 1 0 6 )
本文以多移动机器人协作执行围捕任务为背景 ,探讨了多机器人系统行为层规划及任务层中的任务分解和分配问题 ,提出了一种能有效降低计算量的编队中子任务的分配方法 .为多移动机器人提供了一种在不确定环境中 。
关键词:路径规划 行为融合 任务分配 多移动机器人 分布式控制系统 
检索报告 对象比较 聚类工具 使用帮助 返回顶部