基于改进经验回放策略的路径规划算法
CSTR:
作者:
作者单位:

作者简介:

通讯作者:

中图分类号:

TP242

基金项目:

北京市自然科学基金项目(3242023).


A path planning algorithm based on improved experience replay strategy
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    移动机器人的路径规划和避障问题已成为近年来的研究热点. 现有的基于深度$Q $网络算法在RPP问题上取得了一定的效果. 然而, 该算法在训练过程中存在动作选择随机性过大、收敛速度慢等问题. 此外, 现有的算法较少涉及动态环境的定量分析. 鉴于此, 提出一种基于双深度$Q $网络的路径规划算法. 首先, 设计一种特别的时序输入结构, 能够采集更加丰富的动态语义信息, 可以更好地适应动态场景的路径规划; 然后, 设计一种独特的经验分配策略, 这种策略可在不同的训练阶段分配不同经验池中的经验, 以改善网络的训练效率; 最后, 在静态和动态环境中对所提出算法进行验证. 与改进前的方法相比, 所提出方法训练时间减少了50%, 路径规划的成功率提高了9.6%.

    Abstract:

    The path planning problem for mobile robots has garnered significant attention in recent years. While existing algorithms based on a deep $Q $ network have exhibited a certain degree of effectiveness, they often struggle with excessive randomness in action selection and slow convergence during training. Moreover, existing algorithms are less involved in quantitative analyses of dynamic settings. Therefore, a path planning algorithm based on a double deep $Q $ network (DDQN) is introduced, featuring a unique time-series input structure. Furthermore, a distinctive experience distribution strategy is proposed, which optimizes network training efficiency by distributing experiences from different experience pools at different training stages. The proposed algorithm is evaluated in both static and dynamic environments. Compared to the DDQN method, the proposed algorithm reduces training time by 50% and increases the success rate by 9.6%.

    参考文献
    相似文献
    引证文献
引用本文

李佩哲,张文彪.基于改进经验回放策略的路径规划算法[J].控制与决策,2025,40(8):2545-2552

复制
相关视频

分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2024-09-24
  • 最后修改日期:
  • 录用日期:
  • 在线发布日期: 2025-07-11
  • 出版日期: 2025-08-20
文章二维码