基于强化学习的固定翼飞机姿态控制方法研究
DOI:
作者:
作者单位:

1.海军航空大学;2.陆军工程大学指挥控制工程学院

作者简介:

通讯作者:

中图分类号:

TP273.2

基金项目:

泰山学者工程专项基金资助 (ts201511020)


Reinforcement Learning based Attitude Controller Design
Author:
Affiliation:

Naval Aeronautical University

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    研究了基于强化学习的飞机姿态控制方法。控制器输入为飞机纵向和横向状态变量以及姿态误差,输出升降舵和副翼偏转角度指令,实现不同初始条件下飞机姿态角快速响应,同时避免了使用传统 PID 控制器和不同飞行状态下的参数调节。根据飞机姿态变换特性,通过设置分立的神经网络模型,提高了算法收敛效率。为贴近实际的固定翼飞机控制,仿真基于 JSBSim 的 F-16 飞机空气动力学模型,利用 OpenAI gym 搭建强化学习仿真环境,以任意角速度、角度和空速作为初始条件,对姿态控制器中的动作网络和评价网络进行训练。仿真结果表明基于强化学习的姿态控制器响应速度快,动态误差小,并能避免大过载等边界条件。

    Abstract:

    This article presents an attitude controller based on the Reinforcement Learning (RL). The inputs of the actor network are states of attitude angle, angular rates etc, where the output is the angle control command of elevator and aileron, achieving the rapid response of the attitude angle with variable initial conditions, avoiding the application of the conventional PID controller and the parameter adjustment. According to the states transfer characteristics, by setting the splitting neural network model, efficiency of algorithms is improved. In order to be close to the actual fixed-wing aircraft model, the simulation is based on JSBSim F-16 aerodynamic model, using OpenAI gym to build the simulation environment for reinforcement learning. With arbitrary angular speed, angle, and airspeed as initial conditions, the actor and critic networks are trained. The simulation results show that the RL based attitude controller has faster response and less dynamic error compared with the conventional PID controller.

    参考文献
    相似文献
    引证文献
引用本文
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2021-12-24
  • 最后修改日期:2022-04-18
  • 录用日期:2022-04-27
  • 在线发布日期:
  • 出版日期: