基于雅可比预测的机器人无模型视觉伺服定位控制
CSTR:
作者:
作者单位:

(1. 厦门理工学院电气工程与自动化学院,福建厦门361024;2. 厦门大学自动化系,福建厦门361005)

作者简介:

仲训杲(1983-), 男, 讲师, 博士, 从事机器人视觉伺服与机器学习等研究;彭侠夫(1963-), 男, 教授, 博士, 从事机器人导航与运动控制、机器学习等研究.

通讯作者:

E-mail: zhongxunyu@xmu.edu.cn

中图分类号:

TP242.2

基金项目:

国家自然科学基金项目(61703356);福建省教育厅高校科研专项项目(JAT160363);厦门理工学院高层次人才项目(YKJ15020R).


Jacobian prediction-based for robot model-free visual servoing positioning control
Author:
Affiliation:

(1. School of Electrical Engineering and Automation,Xiamen University of Technology,Xiamen361024,China;2.Department of Automation,Xiamen University,Xiamen361005,China)

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    针对未知相机标定及目标3D几何模型,研究机器人无模型视觉伺服定位方法.引入状态空间,建立机器人“视觉空间-运动空间”雅可比非线性映射的状态方程和观测方程,提出神经网络联合卡尔曼滤波雅可比预测算法,网络在线动态补偿系统近似误差与参数估计误差,实现最小均方差条件下的雅可比预测;以李雅普诺夫稳定性准则构建雅可比预测的无模型图像视觉伺服控制方案,避免了相机标定和目标建模.“眼在手”六自由度机器人定位比较实验表明,图像空间特征轨迹平滑稳定在相机视场中,笛卡尔空间机器人末端运动平稳,无震荡回退,定位精度在10个像素范围内.

    Abstract:

    For an uncalibrated camera and unknown target's 3D model, this paper proposes a model-free visual servoing method for robot positioning. By introducing the state space, the state and observation equations are established on the robot “vision space -movement space” nonlinear mapping of the Jacobian matrix, and the neural network unite Kalman filtering algorithm is presented, while the neural network is used to compensate the approximation error of the dynamic system and paremeter estmation error, for the optimal prediction of the Jacobian with the least mean square error. Then a model-free visual servoing control scheme is further constructed using the Lyapunov stability criterion, which can, avoid the problems of camera calibration and target modeling. Finally, the positioning comparision experiments condlucted for the “eye-in-hand” six degrees of freedom robot show that the trajectories of the image features are smooth and stabilized in the field of view of the canera, and the movement of the robot end-effector is stable with no vibration and retreat in Cartesian space, and the end-efector positioning accuracy is within 10 pixels.

    参考文献
    相似文献
    引证文献
引用本文

仲训杲,徐敏,仲训昱,等.基于雅可比预测的机器人无模型视觉伺服定位控制[J].控制与决策,2018,33(10):1813-1819

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:
  • 最后修改日期:
  • 录用日期:
  • 在线发布日期: 2018-09-28
  • 出版日期:
文章二维码