检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:陆帅 丁香乾[1] 于树松[1] LU Shuai;DING Xiang-qian;YU Shu-song
机构地区:[1]中国海洋大学信息科学与工程学院
出 处:《制造业自动化》2020年第3期148-151,共4页Manufacturing Automation
基 金:青岛市科技计划19-8-1-12-XX
摘 要:针对DQN算法在工业环境维度或动作维度极高的情况下训练速度慢、不易收敛、复用性差的问题,提出了构建等价环境的方法,该方法基于MDP过程构建半增强训练模型,并在输入维度巨大的卷烟制丝过程控制中通过测试。通过分析MP过程,解释了DQN相对Q值学习更加有效的原因,分析了Q值学习本身忽略的环境压缩问题,提出构建环境等价网络的算法。实验表明,在工业环境中,该算法相对DQN明显提高了记忆的使用效率。可预见该算法能够将已完成训练的环境经验应用在新的任务中。同时该算法可推广至动作等价,以简化拥有连续动作或动作维度极高的环境训练问题。
关 键 词:增强学习 马尔科夫决策过程(MDP) 神经网络 深度Q值学习(DQN) 降维
分 类 号:TP273[自动化与计算机技术—检测技术与自动化装置]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.147