您好!欢迎光临工博士商城

安川机器人标准焊接工作站

   产品:49    
联系我们
联系方式
  • 联系人:黄经理
  • 电话:156 0178 5639 微信同
  • 手机:15601785639
新闻分类
  • 暂无分类
站内搜索
 
荣誉资质
  • 暂未上传
首页 > 新闻中心 > 机器人视觉系统组成及定位算法
新闻中心
机器人视觉系统组成及定位算法
发布时间:2019-06-26        浏览次数:219        返回列表
       机器人研究的核心就是:导航定位、路径规划、避障、多传感器融合。定位技术有几种,不关心,只关心视觉的。视觉技术用到“眼睛”可以分为:单目,双目,多目、RGB-D,后三种可以使图像有深度,这些眼睛亦可称为VO(视觉里程计:单目or立体),维基百科给出的介绍:在机器人和计算机视觉问题中,视觉里程计就是一个通过分析处理相关图像序列来确定机器人的位置和姿态。

      当今,由于数字图像处理和计算机视觉技术的迅速发展,越来越多的研究者采用摄像机作为全自主用移动机器人的感知传感器。这主要是因为原来的超声或红外传感器感知信息量有限,鲁棒性差,而视觉系统则可以弥补这些缺点。而现实世界是三维的,而投射于摄像镜头(CCD/CMOS)上的图像则是二维的,视觉处理的*终目的就是要从感知到的二维图像中提取有关的三维世界信息。
 
      系统基本组成:CCD、PCI、PC及其外设等。

CCD/CMOS
       一行硅成像元素,在一个衬底上配置光敏元件和电荷转移器件,通过电荷的依次转移,将多个象素的视频信号分时、顺序地取出来,如面阵CCD传感器采集的图像的分辨率可以从32×32到1024×1024像素等。

视频数字信号处理器
 
       图像信号一般是二维信号,一幅图像通常由512×512个像素组成(当然有时也有256×256,或者1024×1024个像素),每个像素有256级灰度,或者是3×8bit,红黄兰16M种颜色,一幅图像就有256KB或者768KB(对于彩色)个数据。为了完成视觉处理的传感、预处理、分割、描述、识别和解释。

视觉导航定位系统的工作原理
       简单说来就是对机器人周边的环境进行光学处理,先用摄像头进行图像信息采集,将采集的信息进行压缩,然后将它反馈到一个由神经网络和统计学方法构成的学习子系统,再由学习子系统将采集到的图像信息和机器人的实际位置联系起来,完成机器人的自主导航定位功能。

1)摄像头标定算法:2D-3D映射求参。
      传统摄像机标定主要有 Faugeras 标定法、Tscai 两步法、直接线性变换方法、张正友平面标定法和 Weng迭代法。自标定包括基于 Kruppa 方程自标定法、分层逐步自标定法、基于**二次曲面的自标定法和 Pollefeys 的模约束法。视觉标定有马颂德的三正交平移法、李华的平面正交标定法和 Hartley 旋转求内参数标定法。

2)机器视觉与图像处理:
a.预处理:灰化、降噪、滤波、二值化、边缘检测。。。
b.特征提取:特征空间到参数空间映射。算法有HOUGH、SIFT、SURF。
c.图像分割:RGB-HIS。
d.图像描述识别

3)定位算法:基于滤波器的定位算法主要有KF、SEIF、PF、EKF、UKF等。
 
定位算法基本过程:
简单的算法过程,可基于OpenCV进行简单实现。
输入
      通过摄像头获取的视频流(主要为灰度图像,stereo VO中图像既可以是彩色的,也可以是灰度的 ),记录摄像头在t和t+1时刻获得的图像为It和It+1,相机的内参,通过相机标定获得,可以通过matlab或者opencv计算为固定量。

输出
计算每一帧相机的位置+姿态
基本过程
● 获得图像It,It+1
● 对获得图像进行畸变处理
● 通过FAST算法对图像It进行特征检测,通过KLT算法跟踪这些特征到图像It+1中,如果跟踪特征有所丢失,特征数小于某个阈值,则重新进行特征检测
● 通过带RANSAC的5点算法来估计两幅图像的本质矩阵
● 通过计算的本质矩阵进行估计R,t
● 对尺度信息进行估计,*终确定旋转矩阵和平移向量
了解相关资讯请点击:安川机器人
本文摘自:网络   日期:2019-06-26



 

联系热线:15601785639 联系人:黄经理 联系地址:上海市宝山区富联一路98弄6号

技术和报价服务:星期一至星期六8:00-22:00 安川机器人标准焊接工作站

返回
顶部