检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:黄兆军[1] 曾明如[2] HUANG Zhaojun;ZENG Mingru(School of Mechanical and Electrical Engineering,Zhuhai City Polytechnic,Zhuhai 519090,Guangdong,China;School of Information Engineering,Nanchang University,Nanchang 330031,China)
机构地区:[1]珠海城市职业技术学院机电工程学院,广东珠海519090 [2]南昌大学信息工程学院,南昌330031
出 处:《实验室研究与探索》2024年第7期34-38,53,共6页Research and Exploration In Laboratory
基 金:2023年广东省普通高校特色创新项目(2023KTSCX330)。
摘 要:针对深度确定性策略梯度(DDPG)算法应用于无人有缆遥控水下机器人(ROV)运动控制时存在的坏样本影响学习稳定性、缺少环境探索能力以及学习时间长难收敛等问题,从神经网络结构、噪声引入和融合监督学习3个方面对DDPG算法进行改进,并提出了基于混合神经网络结构和参数噪声的监督式DDPG算法。仿真结果表明,监督式DDPG算法比常规DDPG算法和传统比例-积分-微分(PID)算法更加有效。When the depth deterministic strategy gradient(DDPG)algorithm is applied to the motion control of unmanned cabled remote-controled underwater robot,several new problems such as the bad samples affect the learning stability,lack the ability to explore the environment are happened,and the learning time is difficult to cover the teaching of the algorithm.Hence,the DDPG algorithm is improved from three aspects:neural network structure,noise introduction and fusion supervised learning,and a supervised DDPG control algorithm based on hybrid neural network structure and parameter noise is proposed.The simulation results show that the improved DDPG algorithm is more effective than the conventional DDPG algorithm and the traditional PID algorithm.
关 键 词:深度确定性策略梯度算法 混合神经网络 参数噪声 监督学习 无人有缆遥控水下机器人 运动控制
分 类 号:TP242.3[自动化与计算机技术—检测技术与自动化装置]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.3