李晓萌

作品数:6被引量:60H指数:5
导出分析报告
供职机构:上海交通大学更多>>
发文主题:多智能体MARKOV对策智能控制多智能体协作自动导航车更多>>
发文领域:自动化与计算机技术医药卫生更多>>
发文期刊:《模式识别与人工智能》《控制与决策》《上海交通大学学报》《信息与控制》更多>>
所获基金:国家自然科学基金更多>>
-

检索结果分析

署名顺序

  • 全部
  • 第一作者
结果分析中...
条 记 录,以下是1-6
视图:
排序:
基于多级决策的多智能体自动导航车调度系统被引量:11
《上海交通大学学报》2002年第8期1146-1149,共4页李晓萌 杨煜普 许晓鸣 
国家自然科学基金资助项目 (60 1743 0 8)
提出基于多级决策和协作学习的方法来建立自动导航车 ( AGV)调度系统中每个 AGV所需要的动态分布式调度策略 .系统中的每一个 AGV都由一个具有两级决策能力的智能体控制 :在选择级 ,智能体采用 Markov对策框架下的强化学习方法 ,以根据...
关键词:多智能体 自动导航车 调度系统 多级决策 MARKOV对策 强化学习 动态分布式调度策略 
基于强化学习的多智能体动态协作规则提取
《模式识别与人工智能》2002年第4期463-467,共5页李晓萌 杨煜普 许晓鸣 
在分布式的动态环境下,多智能体系统的协作是建立在规则集合上的动态过程,因此需要建立动态的协作规则.多智能体强化学习的平稳状态本质上即是智能体之间的协作规则,据此提出一种基于强化学习的协作规则提取的方法,并由此构成智能体决...
关键词:强化学习 多智能体 动态协作 规则提取 
基于递阶强化学习的多智能体AGV调度系统被引量:9
《控制与决策》2002年第3期292-296,共5页李晓萌 杨煜普 许晓鸣 
递阶强化学习是解决状态空间庞大的复杂系统智能体决策的有效方法。具有离散动态特性的AGV调度系统需要实时动态的调度方法 ,而具有 Max Q递阶强化学习能力的多智能体通过高效的强化学习方法和协作 ,可以实现 AGV的实时调度。
关键词:递阶强化学习 多智能体 AGV调度系统 机器学习 
基于独立学习的多智能体协作决策被引量:8
《控制与决策》2002年第1期29-32,共4页李晓萌 杨煜普 许晓鸣 
联合学习模式是实现多智能体协作决策的有效方法 ,但是当智能体信息不完备时 ,这一方法难以适用。为此 ,在智能体独立学习的基础上提出一种多智能体协作决策方法。以网格对策为例 。
关键词:独立学习 多智能体协作决策 智能控制 学习算法 联合学习模式 
多智能体协作技术综述被引量:28
《信息与控制》2001年第4期337-342,共6页杨煜普 李晓萌 许晓鸣 
国家重点科学基金支持 ( 39930 0 70 )
本文从协作模型和研究方法两个角度考察了多智能体协作技术的发展 ,认为是外在的理性形式化模型和内在的对策和学习机制是多智能体协作技术的两个重要方面 .
关键词:多智能体协作 自协调模型 递归建模 MARKOV对策 智能控制 
基于Markov对策和强化学习的多智能体协作研究被引量:7
《上海交通大学学报》2001年第2期288-292,共5页李晓萌 杨煜普 许晓鸣 
国家自然科学基金!资助项目 (3930 0 70 )
MAS的协作机制研究 ,当前比较适用的研究框架是非零和 Markov对策及基于 Q-算法的强化学习 .但实际上在这种框架下的 Agent强调独立学习而不考虑其他 Agent的行为 ,故 MAS缺乏协作机制 .并且 ,Q-算法要求 Agent与环境的交互时具有完备...
关键词:MARKOV对策 Q-学习算法 协调学习 多智能体系统 强化学习 
检索报告 对象比较 聚类工具 使用帮助 返回顶部