以PUMA560六自由度( 6DOF)机器人为控制对象,在MTALAB/SIMULINK 环境下搭建基于图像的机器人视觉伺服仿真模型,设计视觉控制律实现机器人视觉定位。其中期望的图像特征为[256 456;456 456;456 256;256 256],摄像机-机器人配置采用眼在手构型即摄像机安装在机器人手爪上随着机械手的运动而运动,摄像机内参数为焦距f=0.008m,图像平面x,y方向单位距离上的像素数k₁,k₀均为80000pixel/m,图像中心像素坐标为[256256]。 二、实验内容要求 1、分别画出基于图像的视觉伺服和基于位置的视觉伺服两种视觉伺服方法的结构图并简要说明每种视觉伺服方法的原理。 2、写出图像雅克比矩阵的定义和解析表达式。假设期望的图像特征为[256 456;456 456;456256;256256],写出对应的图像雅克比矩阵,其中特征点的深度Z=2m。 3、在MTALAB/SIMULINK 环境下搭建基于图像的机器人视觉伺服仿真模型,包括实验结果数据保存模块;
时间: 2023-07-15 08:10:00 浏览: 229
1、基于图像的视觉伺服和基于位置的视觉伺服两种视觉伺服方法的结构图
基于图像的视觉伺服方法:该方法通过摄像机采集到的图像信息,计算得出图像特征点与实际物体坐标之间的误差,通过控制机器人末端执行器的运动来调整误差,从而实现物体的定位。
基于位置的视觉伺服方法:该方法通过直接测量机器人末端执行器与物体之间的距离与方向,计算得出机器人与物体之间的误差,通过调整机器人关节角度来调整误差,从而实现物体的定位。
2、图像雅克比矩阵的定义和解析表达式
图像雅克比矩阵是描述图像特征点在相机坐标系下的运动与在图像平面内的变化之间的关系的矩阵。其定义如下:
![image-1.png](attachment:image-1.png)
其中,u、v表示图像平面内的像素坐标,X、Y、Z表示特征点在相机坐标系下的坐标。
假设期望的图像特征为[256 456;456 456;456256;256256],特征点的深度Z=2m,则对应的图像雅克比矩阵为:
![image-2.png](attachment:image-2.png)
3、基于图像的机器人视觉伺服仿真模型
在MATLAB/Simulink环境下,可以通过使用机器人工具箱和图像处理工具箱,搭建基于图像的机器人视觉伺服仿真模型。模型的主要部分包括:
1)机器人模型:使用PUMA560六自由度机器人模型。
2)摄像机模型:模拟摄像机从不同角度获取物体图像。
3)图像处理模块:对摄像机采集到的图像进行处理,提取出期望的图像特征点。
4)图像雅克比矩阵计算模块:根据期望的图像特征点和摄像机参数等信息,计算图像雅克比矩阵。
5)控制模块:根据图像雅克比矩阵和误差信号,计算机器人末端执行器的运动轨迹,控制机器人实现物体的定位。
6)实验结果数据保存模块:将实验数据保存到文件中,方便后续分析和处理。
通过搭建基于图像的机器人视觉伺服仿真模型,可以进行各种不同条件下的仿真实验,验证不同控制方法的有效性和性能。
阅读全文