检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:隋洪建 尚伟伟[1] 李想[1] 丛爽[1] SUI Hongjian;SHANG Weiwei;LI Xiang;CONG Shuang((Department of Automation,University of Science and Technology of China, Hefei 230027.)
机构地区:[1]中国科学技术大学自动化系,安徽合肥230027
出 处:《中国科学技术大学学报》2019年第10期812-819,共8页JUSTC
基 金:国家自然科学基金(51675501)资助。
摘 要:在机器人领域,通过深度学习方法来解决复杂的控制任务非常具有吸引力,但是收集足够的机器人运行数据来训练深度学习模型是困难的.为此,提出一种基于渐进式神经网络(progressive neural network,PNN)的迁移算法,该算法基于深度确定性策略梯度(deep deterministic policy gradient,DDPG)框架,通过把模型池中的预训练模型与目标任务的控制模型有机地结合起来,从而完成从源任务到目标任务的控制策略的迁移.两个仿真实验的结果表明,该算法成功地把先前任务中学习到的控制策略迁移到了目标任务的控制模型中.相比于其他基准方法,该算法学习目标任务所需的时间大大减少.In the field of robotic control,it is appealing to solve complicated control tasks through deep learning techniques.However,collecting enough robot operating data to train deep learning models is difficult.Thus,in this paper a transfer approach based on progressive neural network(PNN)and deep deterministic policy gradient(DDPG)is proposed.By linking the current task model and pretrained task models in the model pool with a novel structure,the control strategy in the pretrained task models is transferred to the current task model.Simulation experiments validate that,the proposed approach can successfully transfer control policies learned from the source task to the current task.And compared with other baselines,the proposed approach takes remarkably less time to achieve the same performance in all the experiments.
关 键 词:机器人控制 迁移学习 深度强化学习 渐进式神经网络
分 类 号:TP242[自动化与计算机技术—检测技术与自动化装置]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:3.22.241.171