基于单目视觉的机器人Monte Carlo自定位方法
DOI:
CSTR:
作者:
作者单位:

1. 湖南工程学院计算机与通信学院;湖南大学电气与信息工程学院
2. 湖南工程学院

作者简介:

刘洞波

通讯作者:

中图分类号:

基金项目:


Monocular Vision based Monte Carlo Localization for Mobile Robot
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    针对单目视觉机器人的定位问题,提出了一种基于改进的尺度不变特征变换(SIFT)的Monte Carlo自定位方法。应用改进的SIFT方法提取特征,既能保证对图像光强变化、尺度缩放、三维视角和噪声具有不变性,又能减少SIFT算法产生的特征点及其抽取和匹配的时间。在机器人移动过程中,环境特征点的观测信息和里程计信息通过粒子滤波相融合,从而提高了机器人定位的速度和精度。实验结果验证了方法的有效性。

    Abstract:

    To deal with the localization problem of robot equipped with monocular camera, a novel Monte Carlo method based on Scale Invariant Feature Transform (SIFT) is proposed. The features are extracted by modified SIFT to make the features be invariant to changes in illumination, scale, 3D viewpoint and noise, and to reduce the number of features generated by SIFT as well as their extraction and matching time. During robot motion, the information from feature observations is fused with that from the odometry by particle filter, which improves the speed and accuracy of the localization effectively. Experimental results demonstrate the validity of the approach.

    参考文献
    相似文献
    引证文献
引用本文

刘洞波 喻妙华.基于单目视觉的机器人Monte Carlo自定位方法[J].控制与决策,2010,25(2):251-254

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2009-02-17
  • 最后修改日期:2009-04-22
  • 录用日期:
  • 在线发布日期: 2010-02-20
  • 出版日期:
文章二维码