文档库 最新最全的文档下载
当前位置:文档库 › 基于单目视觉的移动机器人全局定位

基于单目视觉的移动机器人全局定位

基于单目视觉的移动机器人全局定位
基于单目视觉的移动机器人全局定位

机器人视觉物体定位方法

机器人视觉物体定位方法 本次设计的题目是机器人视觉物体定位。伴随社会发展,机器人的利用越来越普及,出现了多种多样的智能机器人,由此也引发了对机器视觉的研究热潮。文章首先介绍了机器视觉的发展历程,并详细说明了各阶段的特点。接着概述了机器视觉技术的原理,深入剖析了主流视觉物体定位方法。然后介绍了机器人视觉物体定位方法常用的几种应用。最后介绍了几种新颖的视觉物体定位方法,并猜想机器人视觉物体定位技术未来发展方向。 关键词:机器视觉 SLAM技术单目视觉双目视觉多目视觉 第一章:绪论 1.1选题的背景及意义 在我国持续爆发的2019新型冠状病毒(即2019-nCoV)事件中,自动化食品仓储配送系统服务包括机器人、无人驾驶、无人机等再次成为讨论的焦点。配送机器人如何实现自动取货送货?无人驾驶汽车是怎么躲避行人?无人机巡航中怎么确定物体之间的距离?当我们谈到相关的话题时,机器视觉定位是无论如何也绕不开的问题。 自被誉为“机器人之父”的恩格尔伯格先生1959年发明第一台机器人以来,科学家一直把对机器人的研究作为研究的重点方向。传统的机器人缺乏环境感知能力和自动应变能力,仅仅只能在严格的预定义的环境中完成一些预定义和指令下的动作,应用非常有限局限。随着机器人逐渐走进人们的生产和生活中,人们也对机器人提出了更高的要求,希望实现在生产加工中对物体的自动加工、对自身运动轨迹实时的随动检测,节省对其运动轨迹的预先编程,提高生产效率。要达到这些要求,必须同时满足图像信息的获取、采集、处理和输出,这就是本文的研究重点:机器人视觉物体定位方法。

机器人视觉物体定位系统的设计和研发是为了更好地为工业机器人服务,它的本质是发挥摄像机定位以及跟踪性功能,很多企业在自身生产环节依赖于机器人,生产效率明显得到改善。然而很多的机器人是半自动的工作模式,只有在人工操控的指引下才能完成工作任务,这样的机器人实用性很差,无法彻底解放人工,实现自动化操作。为了提高机器人接收外界信息、感知外界信息的能力,进一步提高机器人的工作效率,保障工业生产的精度和质量,在以往的机器人系统中新增全新的计算机图像视觉获取系统,通过视觉图像获取系统中所捕捉的图像和外界信息,对捕捉的图像信息进行处理和分析识别,继而让机器人能够识别外界信息,然后再全面分析图像的基础上完成后续的重建和精准化计算,通过一系列的重建以及精准化的计算全面应用机器人控制柜通讯等等设备,掌控全面的工作,实现机器人对外界信息的跟踪和定位。 1.2国内外研究现状 国外研究现状 国外最先开始视觉物体定位技术的研究,应用领域也相对广泛,并且占据绝对的技术优势,其主要涉及机器人移动导航、三维立体测量、虚拟现实VR技术等。 20世纪60年代,美国mit的robert研究人员提出三维景物分析,标志着立体视觉和影像技术的结合点而诞生。立体视觉在此后20年的时间迅速地发展成为一门新的影像技术学科。到70年代时,以marr为主要代表的一批视觉物体定位方法研究学者已经整理和发展出了一整套关于视觉计算的理论基础。到80 年代后,大量利用空间几何研究双目立体视觉的学者提出了一系列理论与实际成果。 卡内基梅隆大学的Tomasi 和Kanade 等人对立体视觉的研究建立在摄像机为正交投影模型的假设下,分解出了三维结构和相机运行,成功研究出了基于图像的三维重建技术。但是,这项技术存在明显的缺点,由于假设相机为正交投影模型,而这个假设仅仅在物体深度远远大于物体尺寸时才是合理假设。美国

移动机器人导航技术总结

移动机器人的关键技术分为以下三种: (1)导航技术 导航技术是移动机器人的一项核心技术之一[3,4]"它是指移动机器人通过传感器感知环境信息和自身状态,实现在有障碍的环境中面向目标的自主运动"目前,移动机器人主要的导航方式包括:磁导航,惯性导航,视觉导航等"其中,视觉导航15一7]通过摄像头对障碍物和路标信息拍摄,获取图像信息,然后对图像信息进行探测和识别实现导航"它具有信号探测范围广,获取信息完整等优点,是移动机器人导航的一个主要发展方向,而基于非结构化环境视觉导航是移动机器人导航的研究重点。 (2)多传感器信息融合技术多传感器信息融合技术是移动机器人的关键技术之一,其研究始于20世纪80年代18,9]"信息融合是指将多个传感器所提供的环境信息进行集成处理,形成对外部环境的统一表示"它融合了信息的互补性,信息的冗余性,信息的实时性和信息的低成本性"因而能比较完整地,精确地反映环境特征,从而做出正确的判断和决策,保证了机器人系统快速性,准确性和稳定性"目前移动机器人的多传感器融合技术的研究方法主要有:加权平均法,卡尔曼滤波,贝叶斯估计,D-S证据理论推理,产生规则,模糊逻辑,人工神经网络等"例如文献[10]介绍了名为Xavier的机器人,在机器人上装有多种传感器,如激光探测器!声纳、车轮编码器和彩色摄像机等,该机器人具有很高的自主导航能力。 (3)机器人控制器作为机器人的核心部分,机器人控制器是影响机器人性能的关键部分之一"目前,国内外机器人小车的控制系统的核心处理器,己经由MCS-51、80C196等8位、16位微控制器为主,逐渐演变为DSP、高性能32位微控制器为核心构成"由于模块化系统具有良好的前景,开发具有开放式结构的模块化、标准化机器人控制器也成为当前机器人控制器的一个研究热点"近几年,日本!美国和欧洲一些国家都在开发具有开放式结构的机器人控制器,如日本安川公司基于PC开发的具有开放式结构!网络功能的机器人控制器"我国863计划智能机器人主题也已对这方面的研究立项 视觉导航技术分类 机器人视觉被认为是机器人重要的感觉能力,机器人视觉系统正如人的眼睛一样,是机器人感知局部环境的重要“器官”,同时依此感知的环境信息实现对机器人的导航。机器人视觉信息主要指二维彩色CCD摄像机信息,在有些系统中还包括三维激光雷达采集的信息。视觉信息能否正确、实时地处理直接关系到机器人行驶速度、路径跟踪以及对障碍物的避碰,对系统的实时性和鲁棒性具有决定性的作用。视觉信息处理技术是移动机器人研究中最为关键的技术之一。

基于深度视觉的室内移动机器人即时定位与建图研究

基于深度视觉的室内移动机器人即时定位与建图研究 在无法获取GPS信号的室内场合,如何有效地解决移动机器人的室内定位与导航问题,已经成为机器人技术研究领域的难点与热点,而即时定位与地图构建(SLAM)方法为此提供了一个较为合适的解决方法。近些年,由于以Kinect为代表的深度相机具有同时获取场景的彩色信息与深度信息的特点,基于深度相机的视觉SLAM方法逐渐成为视觉SLAM研究的一个重要方向。 本文主要针对基于深度相机的室内移动机器人SLAM技术展开研究,先是利用TUM数据集完成视觉SLAM算法的测试,再在移动机器人平台上进行算法实验,结果能够较好地建立出室内环境的地图模型。本文的主要研究内容共分为以下几个部分:首先,对本课题研究中使用的深度相机的模型展开介绍,包括其中涉及的坐标系与坐标变换,以及深度相机的标定方法。 接着,分析机器人的视觉SLAM过程中涉及的相关系统变量,并对其运动方程和观测方程作出描述。同时,结合图模型,以位姿图的形式,表示移动机器人的即时定位与地图构建过程,为后续研究打下基础。 其次,详细研究基于深度相机的视觉SLAM算法的各个模块。考虑整体SLAM 算法的实时性能,在视觉SLAM的前端,采用计算速度极快的ORB特征,并利用汉明距离进行匹配,同时引入误匹配优化机制,提高特征匹配的准确率。 在估计相机运动时,利用深度相机的深度信息,使用3D-2D的方法估计两帧图像之间相机的运动。在后端处理部分,介绍回环检测方法,利用视觉词袋算法对机器人运动过程中的位姿进行回环,约束其位姿的估计误差。 然后,介绍基于位姿图的非线性优化方法,并利用g2o库求解相机运动轨迹,同时根据深度相机的数据,构建点云地图,展开算法的评价。再次,针对点云地图

移动机器人视觉导航

移动机器人视觉导航。 0504311 19 刘天庆一、引言 智能自主移动机器人系统能够通过传感器感知外界环境和自身状态,实现在有障碍物环境中面向目标的自主运动,从而完成一定作业功能。其本身能够认识工作环境和工作对象,能够根据人给予的指令和“自身”认识外界来独立地工作,能够利用操作机构和移动机构完成复杂的操作任务。因此,要使智能移动机器人具有特定智能,其首先就须具有多种感知功能,进而进行复杂的逻辑推理、规划和决策,在作业环境中自主行动。机器人在行走过程中通常会碰到并且要解决如下三个问题:(1)我(机器人)现在何处?(2)我要往何处走?(3)我要如何到达该处?其中第一个问题是其导航系统中的定位及其跟踪问题,第二、三个是导航系统的路径规划问题。移动机器人导航与定位技术的任务就是解决上面的三个问题。移动机器人通过传感器感知环境和自身状态,进而实现在有障碍物的环境中面向目标自主运动,这就是通常所说的智能自主移动机器人的导航技术。而定位则是确定移动机器人在工作环境中相对于全局坐标的位置及其本身的姿态,是移动机器人导航的基本环节。 目前,应用于自主移动机器人的导航定位技术有很多,归纳起来主要有:安装CCD 摄像头的视觉导航定位、光反射导航定位、全球定位系统GPS(Global Positioning System)、声音导航定位以及电磁导航定位等。下面分别对这几种方法进行简单介绍和分析。 1、视觉导航定位 在视觉导航定位系统中,目前国内外应用较多的是基于局部视觉的在机器人中安装车载摄像机的导航方式。在这种导航方式中,控制设备和传感装置装载在机器人车体上,图像识别、路径规划等高层决策都由车载控制计算机完成。视觉导航定位系统主要包括:摄像机(或CCD 图像传感器)、视频信号数字化设备、基于DSP 的快速信号处理器、计算机及其外设等。现在有很多机器人系统采用CCD 图像传感器,其基本元件是一行硅成像元素,在一个衬底上配置光敏元件和电荷转移器件,通过电荷的依次转移,将多个象素的视频信号分时、顺序地取出来,如面阵CCD传感器采集的图像的分辨率可以从32×32 到1024×1024 像素等。视觉导航定位系统的工作原理简单说来就是对机器人周边的环境进行光学处理,先用摄像头进行图像信息采集,将采集的信息进行压缩,然后将它反馈到一个由神经网络和统计学方法构成的学习子系统,再由学习子系统将采集到的图像信息和机器人的实际位置联系起来,完成机器人的自主导航定位功能。 视觉导航定位中,图像处理计算量大,计算机实时处理的速度要达到576MOPS~5.76BOPS,这样的运算速度在一般计算机上难以实现,因此实时性差这一瓶颈问题有待解决; 另外,对于要求在黑暗环境中作业的机器人来说,这种导航定位方式因为受光线条件限制也不太适应。 当今国内外广泛研制的竞赛足球机器人通常都采用上面所说的视觉导航定位方式,在机器人小车子系统中安装摄像头,配置图像采集板等硬件设备和图像处理软件等组成机器人视觉系统。通过这个视觉系统,足球机器人就可以实现对球的监测,机器人自身的定位,作出相应动作和预测球的走向等功能

基于机器视觉的工件识别和定位文献综述

基于机器视觉的工件识别和定位文献综述 1.前言 1.1工业机器人的现状与发展趋势 机器人作为一种最典型的应用范围广、技术附加值高的数字控制装备,在现代先进生产制造业中发挥的作用越来越重要,机器人技术的发展将会对未来生产和社会发展起到强有力的推动作用。《2l 世纪日本创建机器人社会技术发展战略报告》指出,“机器人技术与信息技术一样,在强化产业竞争力方面是极为重要的战略高技术领域。培育未来机器人产业是支撑2l 世纪日本产业竞争力的产业战略之一,具有非常重要的意义。” 研发工业机器人的初衷是为了使工人能够从单调重复作业、危险恶劣环境作业中解脱出来,但近些年来,工厂和企业引进工业机器人的主要目的则更多地是为了提高生产效率和保证产品质量。因为机器人的使用寿命很长,大都在10 年以上,并且可以全天后不间断的保持连续、高效地工作状态,因此被广泛应用于各行各业,主要进行焊接、装配、搬运、加工、喷涂、码垛等复杂作业。伴随着工业机器人研究技术的成熟和现代制造业对自动生产的需要,工业机器人越来越被广泛的应用到现代化的生产中。 现在机器人的价格相比过去已经下降很多,并且以后还会继续下降,但目前全世界范围的劳动力成本都有所上涨,个别国家和地区劳动力成本又很高,这就给工业机器人的需求提供了广阔的市场空间,工业机器人销量的保持着较快速度的增长。工业机器人在生产中主要有机器人工作单元和机器人工作生产线这两种应用方式,并且在国外,机器人工作生产线已经成为工业机器人主要的应用方式。以机器人为核心的自动化生产线适应了现代制造业多品种、少批量的柔性生产发展方向,具有广阔的市场发展前景和强劲生命力,已开发出多种面向汽车、电气机械等行业的自动化成套装备和生产线产品。在发达国家,机器人自动化生产线已经应用到了各行各业,并且已经形成一个庞大的产业链。像日本的FANUC、MOTOMAN,瑞典的ABB、德国的KUKA、意大利的COMAU 等都是国际上知名的被广泛用于自动化生产线的工业机器人。这些产品代表着当今世界工业机器人的最高水平。 我国的工业机器人前期发展比较缓慢。当将被研发列入国家有关计划后,发展速度就明显加快。特别是在每次国家的五年规划和“863”计划的重点支持下,我国机器人技术的研究取得了重大发展。在机器人基础技术和关键技术方面都取得了巨大进展,科技成果已经在实际工作中得到转化。以沈阳新松机器人为代表的国内机器人自主品牌已迅速崛起并逐步缩小与国际品牌的技术差距。 机器人涉及到多学科的交叉融合,涉及到机械、电子、计算机、通讯、控制等多个方面。在现代制造业中,伴随着工业机器人应用范围的扩大和机器人技术的发展,机器人的自动化、智能化和网络化的程度也越来越高,所能实现的功能也越来越多,性能越来越好。机器人技术的内涵已变为“灵活应用机器人技术的、具有实在动作功能的智能化系统。”目前,工业机器人技术正在向智能机器和智能系统的方向发展,其发展趋势主要为:结构的模块化和可重构化;控制技术的开放化、PC 化和网络化;伺服驱动技术的数字化和分散化;多传感器融合技术的实用化;工作环境设计的优化和作业的柔性化以及系统的网络化和智能化等方面。 1.2机器视觉在工业机器人中的应用 工业机器人是FMS(柔性加工)加工单元的主要组成部分,它的灵活性和柔性使其成为自动化物流系统中必不可少的设备,主要用于物料、工件的装卸、分捡和贮运。目前在全世界有数以百万的各种类型的工业机器人应用在机械制造、零件加工和装配及运输等领域,

基于视觉导航的轮式移动机器人设计方案

基于视觉导航的轮式移动机器人设计方案第一章移动机器人 §1.1移动机器人的研究历史 机器人是一种自动化的机器,所不同的是这种机器具备一些与人或生物相似的智能,如感知能力、规划能力、动作能力和协同能力,是一种具有高度灵活性的自动化机器)。1962年,美国Unimation公司的第一台机器人Unimate。在美国通用汽车公司(GM)投入使用,标志着第一代机器人的诞生。 智能移动机器人更加强调了机器人具有的移动能力,从而面临比固定式机器人更为复杂的不确定性环境,也增加了智能系统的设计复杂度。1968年到1972年间,美国斯坦福国际研究所(Stanford Research Institute, SRI)研制了移动式机器人Shaky,这是首台采用了人工智能学的移动机器人。Shaky具备一定人工智能,能够自主进行感知、环境建模、行为规划并执行任务(如寻找木箱并将其推到指定目的位置)。它装备了电视摄像机、三角法测距仪、碰撞传感器、驱动电机以及编码器,并通过无线通讯系统由二台计算机控制。当时计算机的体积庞大,但运算速度缓慢,导致Shaky往往需要数小时的时间来分析环境并规划行动路径。 1970年前联月球17号探测器把世界第一个无人驾驶的月球车送七月球,月球车行驶0.5公里,考察了8万平方米的月面。后来的月球车行驶37公里,向地球发回88幅月面全景图。在同一时代,美国喷气推进实验室也研制了月球车(Lunar rover),应用于行星探测的研究。采用了摄像机,激光测距仪以及触觉传感器。机器人能够把环境区分为可通行、不可通行以及未知等类型区域。 1973年到1979年,斯坦福大学人工智能实验室研制了CART移动机器人,CART可以自主地在办公室环境运行。CART每移动1米,就停下来通过摄像机的图片对环境进行分析,规划下一步的运行路径。由于当时计算机性能的限制,CART每一次规划都需要耗时约15分钟。CMU Rover由卡耐基梅隆大学机

基于路径识别的移动机器人视觉导航

第9卷 第7期2004年7月 中国图象图形学报Journal of Image and G raphics V ol.9,N o.7July 2004 基金项目:国家“863”计划资助项目(编号:2001AA422200)收稿日期:2004201213;改回日期:2004204206 基于路径识别的移动机器人视觉导航 张海波 原 魁 周庆瑞 (中国科学院自动化研究所高技术创新中心,北京 100080) 摘 要 跟随路径导引是自主式移动机器人广泛采用的一种导航方式,其中视觉导航具有其他传感器导航方式所无法比拟的优点,是移动机器人智能导航的主要发展方向。为了提高移动机器人视觉导航的实时性和准确性,提出了一个基于路径识别的视觉导航系统,其基本思想是首先用基于变分辨率的采样二值化和形态学去噪方法从原始场景图像中提取出目标支持点集,然后用一种改进的哈夫变化检测出场景中的路径,最后由路径跟踪模块分直行和转弯两种情况进行导航计算。实验结果表明,该视觉导航系统具有较好的实时性和准确性。关键词 自主式移动机器人 视觉导航 路径识别 中图法分类号:TP242.62 文献标识码:A 文章编号:100628961(2004)0720853205 Visual N avigation of a Mobile R obot B ased on P ath R ecognition ZH ANG Hai 2bo ,Y UAN K ui ,ZH OU Qing 2rui (Hi 2tech Innovation Centre ,Institute o f Automation ,Chinese Academy o f Sciences ,Beijing 100080) Abctract G uidance using path following is widely applied in the field of autonom ous m obile robots.C om pared with the navigation system without vision ,visual navigation has obvious advantages as rich in formation ,low cost ,quietness ,innocuity ,etc.This pa 2per describes a navigation system which uses the visual in formation provided by guide lines and color signs.In our approach ,the visual navigation is com posed of three main m odules :image 2preprocessing ,path 2recognition and path 2tracking.First ,image 2pre 2processing m odule formulates color m odels of all kinds of objects ,and establishes each object ’s support through adaptive subsam 2pling 2based binarization and mathematical m orphology.Second ,path 2recognition m odule detects the guide lines through an im 2proved H ough trans form alg orithm ,and the detected results including guide lines and color signs integrate the path in formation.Fi 2nally ,calling different functions according to the m ovement of straight 2g oing or turning ,path 2tracking m odule provides required in 2put parameters to m otor controller and steering controller.The experimental results dem onstrate the effectiveness and the robustness of our approach. K eyw ords com puter perception ,autonom ous m obile robot ,visual navigation ,path recognition 1 引 言 导航技术是移动机器人的一项核心技术,其难 度远远超出人们最初的设想,其主要原因有:一是环境的动态变化和不可预测;二是机器人感知手段的不完备,即很多情况下传感器给出的数据是不完全、不连续、不可靠的[1]。这些原因使得机器人系统在复杂度、成本和可靠性方面很难满足要求。 目前广泛应用的一种导航方式是“跟随路径导 引”,即机器人通过对能敏感到的某些外部的连续路 径参照线作出相应反应来进行导航[2]。这种方法和传统的“硬”自动化相比大大增加了系统的灵活性,其具有代表性的系统有:C ontrol Engineering 公司安装的导线引导系统,它是通过检测埋在地下的引导导线来控制行进方向,其线路分岔则通过在导线上加载不同频率的电流来实现[3];Egemin Automation 公司生产的Mailm obile 机器人则安装有主动式紫外光源,并通过3个光电探头来跟随由受激化学物质构成的发光引导路径[4];Macome 公司为自动驾驶车

移动机器人视觉定位方法的研究

移动机器人视觉定位方法的研究 针对移动机器人的局部视觉定位问题进行了研究。首先通过移动机器人视觉定位与目标跟踪系统求出目标质心特征点的位置时间序列,然后在分析二次成像法获取目标深度信息的缺陷的基础上,提出了一种获取目标的空间位置和运动信息的方法。该方法利用序列图像和推广卡尔曼滤波,目标获取采用了HIS模型。在移动机器人满足一定机动的条件下,较精确地得到了目标的空间位置和运动信息。仿真结果验证了该方法的有效性和可行性。 运动视觉研究的是如何从变化场景的一系列不同时刻的图像中提取出有关场景中的目标的形状、位置和运动信息,将之应用于移动机器人的导航与定位。首先要估计出目标的空间位置和运动信息,从而为移动机器人车体的导航与定位提供关键前提。 视觉信息的获取主要是通过单视觉方式和多视觉方式。单视觉方式结构简单,避免了视觉数据融合,易于实现实时监测。如果利用目标物体的几何形状模型,在目标上取3个以上的特征点也能够获取目标的位置等信息。此方法须保证该组特征点在不同坐标系下的位置关系一致,而对于一般的双目视觉系统,坐标的计算误差往往会破坏这种关系。 采用在机器人上安装车载摄像机这种局部视觉定位方式,本文对移动机器人的运动视觉定位方法进行了研究。该方法的实现分为两部分:首先采用移动机器人视觉系统求出目标质心特征点的位置时间序列,从而将对被跟踪目标的跟踪转化为对其质心的跟踪;然后通过推广卡尔曼滤波方法估计目标的空间位置和运动参数。 1.目标成像的几何模型 移动机器人视觉系统的坐标关系如图1所示。 其中O-XYZ为世界坐标系;Oc-XcYcZc为摄像机坐标系。其中Oc为摄像机的光心,X 轴、Y轴分别与Xc轴、Yc轴和图像的x,y轴平行,Zc为摄像机的光轴,它与图像平面垂直。光轴与图像平面的交点O1为图像坐标系的原点。OcO1为摄像机的焦距f. 图1 移动机器人视觉系统的坐标关系

一种基于单目视觉的移动机器人室内导航方法

第32卷第4期2006年7月 光学技术 OPTICAL TECHN IQU E Vol.32No.4 J uly 2006 文章编号:1002-1582(2006)04-0591-03 一种基于单目视觉的移动机器人室内导航方法Ξ 付梦印,谭国悦,王美玲 (北京理工大学信息科学技术学院自动控制系,北京 100081) 摘 要:针对室内导航的环境特点,提出了一种简单快速的、以踢脚线为参考目标的移动机器人室内导航方法。该方法从图像中提取踢脚线作为参考直线,通过两条直线在图像中的成像特征,提取角度和横向偏离距离作为移动机器人的状态控制输入,从而实现移动机器人的横向运动控制。该方法无需进行摄像机的外部参数标定,大大简化了计算过程,提高了视觉导航的实时性。 关键词:视觉导航;直线提取;Hough变换;移动机器人;踢脚线 中图分类号:TP242.6+2;TP391 文献标识码:A An indoor navigation algorithm for mobile robot based on monocular vision FU Meng-yin,T AN G uo-yue,WANG Mei-ling (Department of Automatic Control,School of Information and Science Technolo gy, Beijing Institute of Technology,Beijing 100081,China) Abstract:Considered the features of indoor environment,a sim ple fast indoor navigation algorithm for vision-guide mobile robot was presented,which used skirting lines as the reference objects to locate the mobile robot.This algorithm detected skirt2 ing lines using monocular images and analyzed the lines’parameters to provide angle and distance of the robot as in puts of robot control.Without calibrating camera parameters,this algorithm greatly reduces computation time and improves the real-time a2 bility of vision navigation. K ey w ords:vision navigation;line detection;Hough transform;mobile robot;skirt line 1 引 言 近年来,机器视觉因其含有丰富的环境信息而受到普遍的关注。随着视觉传感器价格的不断下降,视觉导航已成为导航领域研究的热点。在室外进行视觉导航时,采用视觉传感器可获取车道信息,通过摄像机的标定来实现坐标转换,通过确定车辆当前的状态来实现导航。绝大部分智能车辆都是应用视觉来完成车道检测的[1,2],例如意大利的AR2 GO[3]项目就是通过使用逆投射投影的方法[4]来确定车辆状态的,并获得了良好的实验效果。在室内进行视觉导航时,利用视觉提取室内环境特征,例如一些预先设置的引导标志就是通过图像处理进行识别并理解这些标志来完成导航任务的[5,6]。这些都需要在图像中进行大量的搜索运算来提取标志,并通过一系列的图像理解算法来理解标志的信息,因而计算量很大。当然也可以通过视觉计算室内环境,例如通过走廊中的角点特征来获取状态信息[7],以此减少图像搜索时的计算量。但这些角点信息易受移动机器人运动的影响,会模糊角点信息,为了提高计算精度需要通过光流法对背景信息进行运动补偿,计算复杂,实时性不理想。 当移动机器人在实验室走廊环境下进行导航控制时,需要视觉传感器为其提供偏航角和横向偏离距离这两个参数。通过对单目视觉图像进行处理来获取这两个参数,完成移动机器人的横向运动控制。 2 摄像机成像模型与视觉系统 2.1 摄像机成像模型 使用视觉传感器首先要考虑的是其成像模型,它是指三维空间中场景到图像平面的投影关系,不同的视觉传感器有不同的成像模型。本文采用高分辨率CCD摄像机作为视觉传感器,其成像模型为针孔模型,空间中任意一点P在图像上的成像位置可以用针孔模型近似表示。如图1所示,P点投影位置为p,它是光心O同P点的连线O P与图像平面的交点,这种关系叫投射投影。图中标出的坐标系定义如下[8]: (1)图像坐标系I(u,v)是以图像平面的左上角为坐标原点所定义的直角坐标系,以像素为单位表示图像中点的位置。 (2)像平面坐标(x,y)指的是CCD成像靶面 195 Ξ收稿日期:2005-07-12 E-m ail:guoyuetan@https://www.wendangku.net/doc/5711260300.html, 基金项目:国家自然科学基金资助项目(60453001) 作者简介:付梦印(1964-),男,北京理工大学信息科学技术学院自动控制系教授,博士,主要从事导航制导、控制组合导航及智能导航技术的研究。

移动机器人视觉定位设计方案

移动机器人视觉定位设计方案 运动视觉研究的是如何从变化场景的一系列不同时刻的图像中提取出有关场景中的目标的形状、位置和运动信息,将之应用于移动机器人的导航与定位。首先要估计出目标的空间位置和运动信息,从而为移动机器人车体的导航与定位提供关键前提。 视觉信息的获取主要是通过单视觉方式和多视觉方式。单视觉方式结构简单,避免了视觉数据融合,易于实现实时监测。如果利用目标物体的几何形状模型,在目标上取3 个以上的特征点也能够获取目标的位置等信息。此方法须保证该组特征点在不同坐标系下的位置关系一致,而对于一般的双目视觉系统,坐标的计算误差往往会破坏这种关系。 采用在机器人上安装车载摄像机这种局部视觉定位方式,本文对移动机器人的运动视觉定位方法进行了研究。该方法的实现分为两部分:首先采用移动机器人视觉系统求出目标质心特征点的位置时间序列,从而将对被跟踪目标的跟踪转化为对其质心的跟踪;然后通过推广卡尔曼滤波方法估计目标的空间位置和运动参数。 1 目标成像的几何模型 移动机器人视觉系统的坐标关系如图1 所示。 其中O-X Y Z 为世界坐标系;O c - X cY cZ c 为摄像机坐标系。其中O c 为摄像机的光心,X 轴、Y 轴分别与X c 轴、Y c 轴和图像的x ,y 轴平行,Z c 为摄像机的光轴,它与图像平面垂直。光轴与图像平面的交点O 1 为图像坐标系的原点。O cO 1 为摄像机的焦距f 。 图1 移动机器人视觉系统的坐标关系 不考虑透镜畸变,则由透视投影成像模型为:

式中,Z′= [u,v ]T 为目标特征点P 在图像坐标系的二维坐标值;(X ,Y ,Z )为P 点在世界坐标系的坐标;(X c0,Y c0,Z c0)为摄像机的光心在世界坐标系的坐标;dx ,dy 为摄像机的每一个像素分别在x 轴与y 轴方向采样的量化因子;u0,v 0 分别为摄像机的图像中心O 1 在x 轴与y 轴方向采样时的位置偏移量。通过式(1)即可实现点P 位置在图像坐标系和世界坐标系的变换。 2 图像目标识别与定位跟踪 2.1 目标获取 目标的获取即在摄像机采集的图像中搜索是否有特定目标,并提取目标区域,给出目标在图像中的位置特征点。 由于机器人控制实时性的需要,过于耗时的复杂算法是不适用的,因此以颜色信息为目标特征实现目标的获取。本文采用了HS I 模型, 3 个分量中,I 是受光照影响较大的分量。所以,在用颜色特征识别目标时,减少亮度特征I 的权值,主要以H 和S 作为判定的主要特征,从而可以提高颜色特征识别的鲁棒性。 考虑到连通性,本文利用捕获图像的像素及其八连通区域的平均HS 特征向量与目标像素的HS特征向量差的模是否满足一定的阈值条件来判别像素的相似性;同时采用中心连接区域增长法进行区域增长从而确定目标区域。图2 给出了目标区域分割的算法流程。

基于机器视觉的工业机器人定位系统

基于机器视觉的工业机器人定位系统 基于机器视觉的工业机器人定位系统 类别:传感与控制 摘要:建立了一个主动机器视觉定位系统,用于工业机器人对零件工位的精确定位。采用基于区域的匹配和形状特征识别相结合的图像处理方法,该方法经过阈值和形状判据,识别出物体特征。经实验验证,该方法能够快速准确地得到物体的边界和质心,进行数据识别和计算,再结合机器人运动学原理控制机器人实时运动以消除此误差,满足工业机器人自定位的要求。 1.引言目前工业机器人仅能在严格定义的结构化环境中执行预定指令动作,缺乏对环境的感知与应变能力,这极大地限制了机器人的应用。利用机器人的视觉控制,不需要预先对工业机器人的运动轨迹进行示教或离线编程,可节约大量的编程时间,提高生产效率和加工质量。Hagger 等人提出通过基于机器人末端与目标物体之间的误差进行视觉反馈的方法;Mezouar 等人提出通过图像空间的路径规划和基于图像的控制方法。国内这方面主要应用于焊接机器人对焊缝的跟踪。本文利用基于位置的视觉伺服思想,以六自由度垂直关节型喷涂机器人为载体,提出一种基于机器视觉的工业机器人自定位控制方法,解决了机器人末端实际位置与期望位置相距较远的问题,改善了喷涂机器人的定位精度。 2.视觉定位系统的组成机器人视觉定位系统构成如图 1 所示,在关节型机器人末端安装喷涂工具、单个摄像机,使工件能完全出现在摄像机的图像中。系统包括摄像机系统和控制系统:(1)摄像机系统:由单个摄像机和计算机(包括图像采集卡)组成,负责视觉图像的采集和机器视觉算法;(2)控制系统:由计算机和控制箱组成,用来控制机器人末端的实际位置;经 CCD 摄像机对工作区进行拍摄,计算机通过本文使用的图像识别方法,提取跟踪特征,进行数据识别和计算,通过逆运动学求解得到机器人各关节位置误差值,最后控制高精度的末端执行机构,调整机器人的位姿。 图1 喷涂机器人视觉定位系统组成 3.视觉定位系统工作原理 3.1 视觉定位系统的工作原理使用 CCD 摄像机和1394 系列采集卡,将视频信号输入计算机,并对其快速处理。首先选取被跟踪物体的局部图像,该步骤相当于离线学习的过程,在图像中建立坐标系以及训练系统寻找跟踪物。学习结束后,图像卡不停地采集图像,提取跟踪特征,进行数据识别和计算,通过逆运动学求解得到机器人各关节位置给定值,最后控制高精度的末端执行机构,调整机器人的位姿。工作流程如图2 所示。图 2 视觉定位系统软件流程图 3.2 基于区域的匹配本文采用的就是基于区域的相关匹配方法。它是把一幅图像中的某一点的灰度领域作为模板,在另一幅图像中搜索具有相同(或相似)灰度值分布的对应点领域,从而实现两幅图像的匹配。在基于区域相关的算法中,要匹配的元素是固定尺寸的图像窗口,相似准则是两幅图像中窗口间的相关性度量。当搜索区域中的元素使相似性准则最大化时,则认为元素是匹配的。定义P (i, j) P 是模板图像中一点,取以P (i, j) P 为中心的某一邻域作为相关窗口K ,大小为(2w +1),假设K 在原始图中,水

工业机器人视觉系统

工业机器人及机器人视觉系统 人类想要实现一系列的基本活动,如生活、工作、学习就必须依靠自身的器官,除脑以外,最重要的就是我们的眼睛了,(工业)机器人也不例外,要完成正常的生产任务,没有一套完善的,先进的视觉系统是很难想象的。 机器视觉系统就是利用机器代替人眼来作各种测量和判断。它是计算科的一个重要分支,它综合了光学、机械、电子、计算机软硬件等方面的技术,涉及到计算机、图像处理、模式识别、人工智能、信号处理、光机电一体化等多个领域。图像处理和模式识别等技术的快速发展,也大大地推动了机器视觉的发展。 机器视觉系统的应用 在生产线上,人来做此类测量和判断会因疲劳、个人之间的差异等产生误差和错误,但是机器却会不知疲倦地、稳定地进行下去。一般来说,机器视觉系统包括了照明系统、镜头、摄像系统和图像处理系统。对于每一个应用,我们都需要考虑系统的运行速度和图像的

处理速度、使用彩色还是黑白摄像机、检测目标的尺寸还是检测目标有无缺陷、视场需要多大、分辨率需要多高、对比度需要多大等。从功能上来看,典型的机器视觉系统可以分为:图像采集部分、图像处理部分和运动控制部分 工作过程 ?一个完整的机器视觉系统的主要工作过程如下: ?1、工件定位检测器探测到物体已经运动至接近摄像系统的视野中心,向图像采集部分发送触发脉冲。 ?2、图像采集部分按照事先设定的程序和延时,分别向摄像机和照明系统发出启动脉冲。 ?3、摄像机停止目前的扫描,重新开始新的一帧扫描,或者摄像机在启动脉冲来到之前处于等待状态,启动脉冲到来后启动一帧扫描。 ?4、摄像机开始新的一帧扫描之前打开曝光机构,曝光时间可以事先设定。

机器人视觉系统系统基本组成:CCD、PCI、PC及其外设等

机器人视觉系统系统基本组成:CCD、PCI、PC及其外设等 1.机器人视觉 机器人研究的核心就是:导航定位、路径规划、避障、多传感器融合。定位技术有几种,不关心,只关心视觉的。视觉技术用到“眼睛”可以分为:单目,双目,多目、RGB-D,后三种可以使图像有深度,这些眼睛亦可称为VO(视觉里程计:单目or立体),维基百科给出的介绍:在机器人和计算机视觉问题中,视觉里程计就是一个通过分析处理相关图像序列来确定机器人的位置和姿态。 当今,由于数字图像处理和计算机视觉技术的迅速发展,越来越多的研究者采用摄像机作为全自主用移动机器人的感知传感器。这主要是因为原来的超声或红外传感器感知信息量有限,鲁棒性差,而视觉系统则可以弥补这些缺点。而现实世界是三维的,而投射于摄像镜头(CCD/CMOS)上的图像则是二维的,视觉处理的最终目的就是要从感知到的二维图像中提取有关的三维世界信息。 2.系统基本组成:CCD、PCI、PC及其外设等。 2.1 CCD/CMOS一行硅成像元素,在一个衬底上配置光敏元件和电荷转移器件,通过电荷的依次转移,将多个象素的视频信号分时、顺序地取出来,如面阵CCD传感器采集的图像的分辨率可以从32×32到1024×1024像素等。 2.2视频数字信号处理器图像信号一般是二维信号,一幅图像通常由512×512个像素组成(当然有时也有256×256,或者1024×1024个像素),每个像素有256级灰度,或者是3×8bit,红黄兰16M种颜色,一幅图像就有256KB或者768KB(对于彩色)个数据。为了完成视觉处理的传感、预处理、分割、描述、识别和解释,上述前几项主要完成的数学运算可归纳为: (1)点处理常用于对比度增强、密度非线性较正、阈值处理、伪彩色处理等。每个像素的输入数据经过一定关系映射成像素的输出数据,例如对数变换可实现暗区对比度扩张。(2)二维卷积的运算常用于图像平滑、尖锐化、轮廓增强、空间滤波、标准模板匹配计算等。

移动机器人视觉导航系统研究

北京交通大学 硕士学位论文 移动机器人视觉导航系统研究姓名:王红波 申请学位级别:硕士专业:信号与信息处理指导教师:阮秋琦 20080601 中文摘要 中文摘要 摘要:基于视觉的移动机器人导航是近年发展起来的一种先进导航技术。与其它的非视觉传感器导航相比,它具有信息丰富、探测范围宽、目标信息完整等优点。本文结合实际应用,提出了一个完整的移动机器人视觉导航系统解决方案。研究内容主要包括四个部分:摄像机标定、目标识别、单目测距和运动控制。分别阐述如下: 第一,摄像机标定,基于张正友的平面标定算法对摄像头进行精确标定,针对摄像头的自动变焦特性,提出了一个新的离线离散标定策略,并获得多个状态下的摄像头内外参数。 第二,目标识别,传统分割方法存在多分割问题,影响到目标物提取的精度, 这罩提出一个改进了的基于HSI模型的彩色图像分割算法,在多通道阈值分割的基础上,融入了连通区域标记和形念学开闭运算。 第三,单目测距,基于摄影测量学和立体几何理论,建立了单目视觉测距模型,并推导了基于地平面约束的单目测距算法。针对多种误差因素,在测距算法中加入了误差校币,使移动机器人能够更加准确地定位目标物体。 第四,运动控制,控制摄像机云台实现日标物搜索,调整移动机器人位姿和对夹持器的动作控制。

实验结果表明:即使在恶劣光照条件下,提出的Hs工分割算法能够对向光、背光、近处、远处物体实现快速有效提取;提出的单目测距模型和算法能够对目标物体进行精确的测距;当把这些算法集成到实验平台上时,能够快速实现移动机器人的导航控制,并成功完成物体抓取操作。 关键词:摄像机标定、彩色目标识别、单目视觉测距、移动机器人 分类号:TP 391.41 ABSTRACI' ABSTRACT ABS。I’RAC’1.. In recent years,vision attracts a lot of attention for navigating a mobile robot in dynamic https://www.wendangku.net/doc/5711260300.html,pared with other sensing systems,visual navigation is excellent and effective.With a visual sensing system,wider view of field,rich and intensive data Can be obtained for a mobile robot moving in a changing environment.In this study,a visual navigation scheme is proposed for a mobile robot to realize object collection,and it comprises of camera calibration,object recognition,monocular measurement and motion control,as stated in the following. Firstly,the technique of camera calibration is presented on the basis of Zhang’S algorithm.Since a PTZ calTlera is used here,it is controlled to move up and down,from left to right,to extend the view of field.Therefore,calibration in different positions is needed,and a new discrete method is proposed here. Secondly,a

机器人视觉系统方案

机器人视觉系统 在现代工业自动化生产中,涉及到各种各样的检验、生产监视及零件识别应用,例如零配件批量加工的尺寸检查,自动装配的完整性检查,电子装配线的元件自动定位,IC上的字符识别等。通常人眼无法连续、稳定地完成这些带有高度重复性和智能性的工作,其它物理量传感器也难有用武之地。由此人们开始考虑利用光电成像系统采集被控目标的图像,而后经计算机或专用的图像处理模块进行数字化处理,根据图像的像素分布、亮度和颜色等信息,来进行尺寸、形状、颜色等的判别。这样,就把计算机的快速性、可重复性,与人眼视觉的高度智能化和抽象能力相结合,由此产生了机器视觉的概念。 一个成功的机器视觉系统是一个经过细致工程处理来满足一系列明确要求的系统。当这些要求完全确定后,这个系统就设计并建立来满足这些精确的要求。机器视觉的优点包括以下几点: ■精度高 作为一个精确的测量仪器,设计优秀的视觉系统能够对一千个或更多部件的一个进行空间测量。因为此种测量不需要接触,所以对脆弱部件没有磨损和危险。 ■连续性 视觉系统可以使人们免受疲劳之苦。因为没有人工操作者,也就没有了人为造成的操作变化。多个系统可以设定单独运行。 ■成本效率高 随着计算机处理器价格的急剧下降,机器视觉系统成本效率也变得越来越高。一个价值10000美元的视觉系统可以轻松取代三个人工探测者,而每个探测者每年需要20000美元的工资。另外,视觉系统的操作和维持费用非常低。 ■灵活性 视觉系统能够进行各种不同的测量。当应用变化以后,只需软件做相应变化或者升级以适应新的需求即可。 许多应用满意过程控制(SPC)的公司正在考虑应用机器视觉系统来传递持续的、协调的和精确的测量SPC 命令。在SPC中,制造参数是被持续监控的。整个过程的控制就是要保证这些参数在一定的围。这使制造者在生产过程失去控制或出现坏部件时能够调节过程参数。 机器视觉系统比光学或机器传感器有更好的可适应性。它们使自动机器具有了多样性、灵活性和可重组性。当需要改变生产过程时,对机器视觉来说“工具更换”仅仅是软件的变换而不是更换昂贵的硬件。当生产线重组后,视觉系统往往可以重复使用 机器视觉系统的构成 机器视觉技术用计算机来分析一个图像,并根据分析得出结论。现今机器视觉有两种应用。机器视觉系统可以探测部件,在此光学器件允许处理器更精确的观察目标并对哪些部件可以通过哪些需要废弃做出有效的决定;机器视觉也可以用来创造一个部件,即运用复杂光学器件和软件相结合直接指导制造过程。

相关文档