摘要:移动机器人的路径规划和避障问题已成为近年来的研究热点. 现有的基于深度$Q $网络算法在RPP问题上取得了一定的效果. 然而, 该算法在训练过程中存在动作选择随机性过大、收敛速度慢等问题. 此外, 现有的算法较少涉及动态环境的定量分析. 鉴于此, 提出一种基于双深度$Q $网络的路径规划算法. 首先, 设计一种特别的时序输入结构, 能够采集更加丰富的动态语义信息, 可以更好地适应动态场景的路径规划; 然后, 设计一种独特的经验分配策略, 这种策略可在不同的训练阶段分配不同经验池中的经验, 以改善网络的训练效率; 最后, 在静态和动态环境中对所提出算法进行验证. 与改进前的方法相比, 所提出方法训练时间减少了50%, 路径规划的成功率提高了9.6%.