检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]东北大学信息科学与工程学院,辽宁沈阳110819 [2]国网辽宁省电力有限公司经济技术研究院,辽宁沈阳110000
出 处:《东北大学学报(自然科学版)》2015年第3期318-321,326,共5页Journal of Northeastern University(Natural Science)
基 金:国家自然科学基金资助项目(61104010);高等学校博士学科点专项科研基金资助项目(20110042120032)
摘 要:提出了一种在线积分策略迭代算法,用来求解内部非线性动力模型未知的双人非零和博弈问题.通过在控制策略和干扰策略中引入探测信号,从而避开了系统的模型信息,得到了一个求解非零和博弈的无模型的近似动态规划算法.该算法同步更新值函数、控制策略、扰动策略,并且最终得到收敛的策略权值.在算法实现过程中,使用4个神经网络分别近似两个值函数、控制策略和扰动策略,使用最小二乘法估计神经网络的未知参数.最后仿真结果验证了算法的有效性.An online integral policy iteration algorithm was proposed to find the solution of two-player nonzero-sum differential games with completely unknown nonlinear continuous-time dynamics. Exploration signals can be added into the control and disturbance policies,rather than having to find the model information. An approximate dynamic programming( ADP) of modelfree approach can be constructed,and the nonzero-sum games can be solved. The value function,control and disturbance policies simultaneously can be updated by the proposed algorithm,and converged policy weight parameters are obtained. To implement the algorithm, four neural networks are used respectively to approximate the two game value functions,the control policy and the disturbance policy. The least squares method is used to estimate the unknown parameters of the neural networks. The effectiveness of the developed scheme is demonstrated by a simulation example.
关 键 词:自适应动态规划 非零和博弈 策略迭代 神经网络 最优控制
分 类 号:TP183[自动化与计算机技术—控制理论与控制工程]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.158