没有合适的资源?快使用搜索试试~ 我知道了~
物联网和网络物理系统2(2022)63计算机视觉在移动机器人定位中的应用Antonio Savio Silva Oliveirab,Marcello Carvalho dos Reisa,*,Francisco Alan Xavier da Motac,Maria Elisa Marciano Martinezd,Auzuir Ripardo Alexandriaca巴西塞阿拉联邦大学b巴西塞阿拉联邦理工学院c巴西塞阿拉联邦教育、科学和技术研究所d巴西国家工业产权局自动清洁装置关键词:定位计算机视觉移动机器人综述A B标准这项工作提出了一个系统的审查计算机视觉技术定位移动机器人。它的主要目标是分析用于移动机器人定位的最新技术。此外,这项工作还回顾了迄今取得的进展,评估了有待克服的挑战,并对未来前景进行了分析。有很多研究与移动机器人的位置相关,但关于该主题的评论文章很少,这使得这项工作具有显着的价值。该研究涵盖了截至2021年6月在Web of Science,Scopus,Science Direct和IEEEEXplore上发表的作品每一项发现的工作都提出了一种基于视觉的定位技术。在单独分析之后,可以得出结论,有必要通过单一标准评估这些技术的准确性水平,有必要评估计算成本的成本效益以及对更强大的最后,这项工作的主要贡献是创建一个表格,总结了计算机视觉定位的主要方法,对所选作品的关键词进行了统计分析,并概述了这一研究领域,为未来的研究奠定了基础1. 介绍机器人市场在全球范围内趋于增长,因为自动化,特别是机器人技术是工业过程中的一个影响因素,因为它提高了过程效率,减少了浪费量,提高了质量,降低了成本和劳动力,此外还改善了工人的人体工程学[1]。工业及其生产技术的不断现代化,加上工业4.0技术,特别是竞争问题,表明需要使所谓的“传统”工厂和生产手段适应可靠且具有成本效益的这让我们思考用现代移动机器人取代大型、固定和依赖操作员的传统设备和机器人的优势根据Ferreira [3]的说法,移动机器人更通用,因为它们不需要连接到工作单元,可以用于没有地理限制的任务,机器人用腿或轮子移动,它们可以自主与否,它们是在高水平上编程的通过软件和它的传感器感受你周围的环境根据Pio,Castro和Júnior的说法,我们可以将移动机器人定义为能够从环境中提取信息并在世界各地使用这些知识以有意义和有意识的方式安全移动的自主代理,行动和执行任务。 为了使机器人能够执行这些任务,有必要使用传感器(允许机器人从环境中收集信息的设备)。我们可以用人类来做类比,说机器人的传感器就像是感官之一(视觉,听觉,嗅觉等)。换句话说,它是通过传感器,机器人是能够从环境中捕捉对于移动机器人来说,最重要的是能够在环境中定位自己。 当需要从一个点移动到另一个点时,机器人必须能够检测到障碍物,躲避它们并完成目标。如果环境是已知的,这个问题可以概括为轨迹规划,如果环境是未知的,机器人必须对传感器检测到的东西做出反应[5]。在解决移动电话定位问题的各种方法中,*通讯作者。巴西塞阿拉联邦大学,福塔莱萨。电子邮件地址:savio. ifce.edu.br(A.S. Silva Oliveira),marcello@meteora.com.br(M.C.Reis),francisco.alan. X avier05@aluno.ifce.edu.br(F.A.X.Mota),melisa@inpi.gov.br(M.E.M. Martinez),auzuir@ifce.edu.br(A.R. Alexandria)。https://doi.org/10.1016/j.iotcps.2022.05.002接收日期:2021年10月10日;接收日期:2021年12月2日;接受日期:2022年5月1日2022年5月10日网上发售2667-3452/©2022作者。由爱思唯尔公司出版我代表科爱通信公司,公司这是CC BY许可证下的开放获取文章(creativecommons.org/licenses/by/4.0/)。可在ScienceDirect上获得目录列表物联网和网络物理系统期刊主页:www.keaipublishing.com/en/journals/A.S. Silva Oliveira等人物联网和网络物理系统2(2022)6364机器人,突出了计算机视觉的使用,一种试图通过使用相机和计算机系统来模仿人类视觉功能根据Couto [6]的说法,视觉提供了大量的信息,人类可以通过视觉感知距离,识别场景中的元素,甚至解决复杂的定位和导航问题。仍然根据Couto [6],探索移动机器人的视觉和动物视觉之间的类比是很自然的,因为移动机器人经常在生物和它们执行任务的方式中寻求灵感尽管文献中提出了几种用于定位机器人的技术,但研究人员仍然没有就解决这个问题的具体技术达成共识,但根据对已发表文献的分析,可以得出结论,考虑到精度参数和机器人定位和执行任务所花费的时间,涉及计算机视觉的技术比其他技术更有效此外,考虑到使用计算机视觉的方法,有必要通过单一标准评估这些技术的准确性水平此外,当我们讨论计算成本和需要更多的计算机或强大的系统来执行本地化任务时,有必要评估每种技术的收益成本因此,这项工作旨在对现有的用于定位机器人家具的计算机视觉技术进行文献综述,以确定目前使用的主要技术,比较所获得的结果,并为新的研究人员提供概述,寻求确定已经取得的进展和尚未克服的挑战。2. 位置定位是移动机器人的基本要求。为了能够自主导航,他必须准确地了解你在环境中的位置。Campbell等人[7]提出了两种常见的机器人定位方法,其中我们可以强调:GPS,其通过卫星导航系统工作;里程计,其通过使用测量车轮旋转的编码器计算机器人的位置;惯性导航系统(INS),其工作方式类似于里程计,具有不需要任何初始参考点的优点,但由于累积误差而不适合长时间定位,通常用于补充其他定位方法,例如视觉或GPS系统;以及基于地图的定位根据Oates [8]的案例,GPS系统是高度精确的,大部分的定位问题将被避免,因为GPS将通知机器人它的确切位置,室内和室外,以及问题的答案“我在哪里?”总是可用的,但不幸的是,精度目前是几米,这是不可行的移动机器人,在规模的人或微型。此外,GPS不适用于室内或有障碍的区域,但如果我们超越这些限制,我们可以看到机器人的位置意味着不仅仅是知道地球上某人的绝对位置,考虑到与人类互动的机器人,他需要确定他的绝对位置,但你相对于人类的位置同样重要。在已经提到的定位方法中,通常相对于机器人位置呈现更好精度的方法是基于地图的。在使用地图的技术中,可以将它们分为两类:通过已经创建的环境地图进行定位和同时定位和映射(SLAM),其在尝试将机器人定位在该地图上时实时生成地图但在这项工作中,我们将通过使用以前创建的地图,专注于计算机视觉的定位技术,因为它往往更准确,更不易出错。3. 相关作品在已经发表的关于定位移动机器人的评论文章中,我们可以突出以下工作:(Ref.[9])。本文概述了计算机视觉内部环境中基于位置的应用,介绍了应用领域,商业工具,现有基准和其他分析。(参考文献)[10])。本文的目的是为Visual SLAM领域的新研究人员提供一个简短的回顾和理解的最新技术水平。(Ref.[7])。本文概述了移动机器人常用的位置标签的大多数技术,建议对位置有一个大致的了解,但不要具体关注基于位置的视觉。(参考文献)[11])。本文重点介绍了基于视觉的室内和地面自主机器人导航方法这项工作与现有综述文章之间的差异在于研究所用的方法,该方法使用定义明确的逻辑表达并优化以获得最佳结果,定义综述文章的纳入和排除规则,提交所发现文章中最常用的关键词,介绍基于视觉的内部、外部和3D环境的本地化技术,以及介绍选定文章中使用的开发平台此外,在这项工作中使用的方法可以在未来再次应用,以更新结果,因为新的出现基于计算机视觉的移动机器人定位的文章,因此更新这篇评论。4. 方法在Web of Science、Science Direct、IEEE Xplore和Scopus平台上对文献科学研究进行了系统性综述关键词包括通过计算机视觉指代移动机器人的位置的术语的组合,并适应于每个搜索引擎的语法:(“移动机器人”)AND(“机器人定位”)AND(“计算机视觉“或“基于视觉”)AND NOT(“SLAM”)。该调查包括从数据库开始到2021年6月18日发表的文章。检索了介绍用于定位移动机器人的计算机视觉技术的英文文献,排除了专门关注导航或同步定位和地图绘制(SLAM)的文献,应仅对这些类别进行单独研究。此外,当观察到同一主题的两个作品时,只包括最新的作品。5. 结果最初,共识别出296篇文章,其中11篇在IEEE Base上,12篇在Web of Science上,225篇在Science Direct上,59篇在Scopus上。 在审查了标题和摘要后,排除了249篇文章,剩下47篇可阅读全文,如图所示。1.一、 在最初的修订中,有11部作品被排除在外,因为它们在数据库中重复,233部是由于标题不兼容,5部是在阅读摘要后。在剩下的47个标题中,有24个被排除在外,因为它们没有保存定位移动机器人的技术,或者存在混乱或不完整的信息。根据表1所述的一些标准,对23件入选作品进行了分析和比较。考虑到所选的文章,统计分析最常用的关键字,可以用来搜索更好的结果,正如我们可以看到在图。 二、5.1. 讨论、机会和未决问题Atiya和Hager [12]提出了一种从参考点确定机器人位置的算法该算法确定观察到的参考点(在本例中为垂直参考点)之间的对应性A.S. Silva Oliveira等人物联网和网络物理系统2(2022)6365Fig. 1. 系统审查研究的识别、筛选过程和选择。环境中的边缘)和地图存储,并使用这些匹配计算机器人的位置。 主要优点是使用单一的公差几何来描述观测误差,能够识别集合二义性,计算位置误差并快速执行。算法已在一个移动机器人系统上实现和测试根据作者的说法,在数百次尝试中,他从未失败过,并在不到0.5秒的时间内计算出最接近厘米的位置Baatar、Eichhorn和Ament [28]使用Robotino移动机器人系统,并提供了一种相对便宜且准确的定位系统,该系统结合了里程计和基于视觉的定位的优点使用卡尔曼滤波器扩展(EKF)进行基于视觉的里程计和位置的合并数据,定位系统提供了更好的准确性和测试领域中机器人家具最常见的姿势信息。Babinec等人[29]提出了一种使用环境中植入的人工标记的移动机器人定位方法。标记的特点是可以仅从一个标记确定相机相对于标记的位置和旋转。实验结果表明,该系统能够可靠地应用于移动机器人的视觉定位。Boutteau等人[33]提出了一种基于视觉的系统,用于在大型工业环境中定位机器人家具。 主要贡献在于使用鱼眼相机来获得大视野和相关算法。该系统是在一个真正的工业环境中体验的,他们在一个盆地中定位了一艘潜水艇(Vehicle Remotely Operated Submarine)。作者声称,该系统也可以以同样的方式定位带轮子的移动Charmette,Royer和Chausse [31]使用探索机器人运动模型的特征的局部3D模型详细描述了资源的匹配解决方案在一个简单的匹配实验中将该方法与SIFT描述子进行了比较该方法与预测模型相结合,实现了移动机器人的自主导航Silva等人。[34]提出了一种使用Kinect传感器和与卷积神经网络(CNN)相关的迁移学习概念来独立定位移动机器人这项工作的主要重点是使用转换为马赛克图像的RGB-D图像的独特配置,结合CNN的描述能力,以估计室内环境中机器人移动的位置。 实验结果表明,该方法对移动机器人的任务定位和导航支持具有较好的效果,定位精度和F1得分均达到100%。获得的值处理时间也适用于计算机视觉系统,提取、训练步骤和分类分别为31.885 ms、0.040 s和0.044 s。Feng等人[27]描述了一种用于在室内环境中定位移动机器人的新系统,使用诸如单应性和立体上下文的借用对应的概念以及基于内容的成像(CBIR)的检索技术。 为了处理视点和摄像机位置的变化,提取一组兴趣点(POI)来表示图像,以实现对应鲁棒性。本文档中描述的系统和方法在ImageCLEF 2009中被评为第二好。Gamallo等人[25]提出了一种基于全视的MCL算法,它通过使用Kullback-Leibler(KLD)的发散度来处理可变数量的粒子 测量模型基于带鱼眼镜头的全向照相机。该模型使用基于资源的环境地图,并且资源提取过程使其对环境中的遮挡和变化具有鲁棒性此外,该算法是可扩展的,实时工作。跟踪问题、定位全局和绑架机器人的实验结果表明,该定位系统在实际环境中具有良好的Gonzalez等人 [26]提出了一种视觉里程计方法来估计在越野条件下操作的移动机器人的位置。这种方法是基于在婚姻的模型,它处理的机器人位移的估计,通过两个连续的图像之间的婚姻过程。采用视觉罗盘法对视觉里程图进行了改进,用于制导估计。为此,两台摄像机使用了单筒望远镜,一台指向机器人下方的地面,另一台则观察周围的环境通过在越野条件下的物理实验,与流行的本地化方法进行了比较,结果表明所提出的策略具有令人满意的性能。Hashimoto,Oba和Tomiie [13]提出了一种使用视觉和人工标志的机器人室内家具定位方法重要的贡献是使用跑马灯的位置相对。使用面向前方的相机和眼睛水平处的彩色斑块可以让您在多机器人环境中达到绝对位置和相对位置,但是,它带来了一个潜在的问题,即用相机看到的板往往偶尔会被环境中悬停的移动机器人遮挡 卡尔曼滤波器和交互多模型方法被应用于使用所识别的板来找到机器人的精确位置。实验结果表明了该定位方法的可行性Jin和Lee [15]提出了一种新的定位方法,该方法利用室内环境中外部监控摄像机的信息。当移动对象为走廊中的移动机器人时,通过对移动机器人图像的几何分析,估计出机器人的当前位置,辅助定位机器人,得到了移动机器人的准确位置,并通过实际实验验证了其正确此外,它是可以区分两个机器人和其他对象通过神经网络与数据,通过提取点的Kidono,Miura和Shirai [14]提出了一种导航策略,需要最少的用户帮助。 在这种策略中,用户首先将移动机器人引导到远程控制目的地。在这个运动过程中,机器人观察周围的环境,绘制地图。 一旦生成地图,机器人就以自主的方式计算并遵循到达目的地的最短路径。 为实现这一导航策略,提出了:(1)考虑观测和运动的不确定性,综合多个观测结果的地图生成方法;(2)不使用特征匹配显式的机器人快速定位方法;(3)利用运动引导过程中的观测历史选择有效观察方向的方法。实际机器人的实验结果表明了该策略的可行性。Lee,Yim和Song [23]提出了一种基于滤波器的粒子定位方法,该方法将从红外扫描仪获得的低成本距离信息与基于SIFT获得的视觉信息相结合A.S. Silva Oliveira等人物联网和网络物理系统2(2022)6366表1主要定位方法。作者环境方法传感器平台[12个]室内环境地标传统相机PC Sun 4/280[13个国家]室内环境公司简介传统相机没有通知[14个]室内环境人性化引导立体相机没有通知[第十五条]图像分类走廊利用神经EX ternal相机没有通知[16个]室内环境网络自然环境地标全向相机Pentium II 2 GHz[17个]室内环境定位内部环境结合立体相机PC没有通知[18个国家]室内环境图像检索Monte Carlo定位环境LTRC全景相机Athlon XP1600[19个]室内环境尺度不变特征全向相机PC3 GHz Pentium 4[20个]RoboCup与环境变换和粒子滤波器蒙特卡罗定位全向相机PCPC-104 Pentium[21日]内部虚拟环境和内部回归模型传统相机III 700 MHz,128 Mb RAMAMD AthronXP,[22日]室内环境特征区域检测器传统相机2.8 GHzLinuX Pentium 4[23日]室内环境传感器融合(摄像头和距离)红外扫描仪和网络摄像头3.0 GHz,2 GB RAM。没有通知[24日]室外环境生物灵感视觉传统相机16核2.6 GHz[25日]室内环境KLD增强型全方位摄像头,机英特尔奔腾4[26日]越野视觉蒙特卡洛定位里程计和视觉罗盘透镜鱼眼两个单目摄像头3.06 GHz CPU英特尔酷睿2双核2.5 GHz,3.5GB RAM[27日][28]第二十八届室内环境室内环境单应性和匹配借用自立体上下文和基于内容的图像检索技术传感器融合(摄像头和里程计)传统相机传统相机四核CPU,4 GB RAM没有通知[29日]室内环境人工2D标记(工业)网络摄像头和摄像头没有通知[30个]室内环境单应IDs两个室外摄像头没有通知[三十一]3D模型特征匹配结合预测模型虚拟相机英特尔酷睿2四核2.4 GHz处理器,4 GB RAM和Nvidia GPUGeForce GTX[32个]虚拟环境和内部监督学习使用Gopro 2.5 GHz iMac相机460,1 GB RAM酷睿i5处理器,[33个]工业拓扑地图LED检测带镜头的4 GB RAMIntel Core i5-2520 M CPU[34个]室内环境迁移学习鱼眼微软Kinect2.50 GHz和8 GB RAMIntel Xeon 32 Gb RAM,无GPURGB-D图二. 精选文章中最常用的关键词列表。A.S. Silva Oliveira等人物联网和网络物理系统2(2022)6367从摄像机单目用于鲁棒估计机器人的姿态。提出的基于传感器组合的定位算法使得MCL中的样本能够收敛到最快机器人的真实位姿,而不是基于距离或视觉的定位算法。虽然识别对象的处理时间很长,但通过基于编码器的同步,样本的概率被实时更新提出的基于视觉传感器模型的定位状态评估算法能够有效地检测定位故障并进行恢复。Marinho等人。[32]提出了一种从图像中定位机器人家具的新方法。该建议是基于学习监督的拓扑表示的环境。整个系统理解特征的方法提取和分类这项研究是在两组图像的合成环境和真正使用的GoPro相机。结果表明,空间矩结合贝叶斯分类器是最好的模型性能,提供了高的准确率(99.94%)和短的计算时间A.S. Silva Oliveira等人物联网和网络物理系统2(2022)6368时间(分类和提取分别为47.3μs和0.165 s作者指出,带拒绝的位置选项提高了移动机器人导航的效率和可靠性。Menegatti等人[20]提出了一种基于蒙特卡罗的视觉定位系统,特别适用于人口密集的环境,使用射线鉴别技术。The system.全向视觉模拟测距仪的行为,由于能够区分不同的过渡颜色,可以检测和拒绝由遮挡引起的测量误差 该系统只需要一个地图的功能,指标和色彩的环境. 从这个地图,系统将自动重新计算本地化过程中使用的所有查找表。Ramisa等人[22]提出了一种基于视觉的移动机器人定位方法该方法通过子空间来刻画场所的特征,可用于全局定位.该签名由一系列特征描述符组成,这些特征描述符是从相关协变区域中计算出来的,这些协变区域是从全景图像中提取的,这些图像是在我们想要添加到地图中的位置处获取的。然后将这些签名与使用几何约束从新的全景图像中提取的星座进行比较,并且选择最相似的签名作为当前位置。 实验结果表明,如果有效地拒绝了假匹配,不同区域检测器协变af_fine的组合显著地提高了组合各个检测器的不同强度的方法的性能。Saito和Kitaguchi [21]提出了一种基于外观的方法,使用最小二乘回归模型对移动机器人进行自定位。在这种方法中,模型创建LRR和KRR作为子空间方法替代PCA。这些模型的最大好处是实现从图像到其位置的连续映射。由于该方法不需要检索训练数据集的图像,因此定位复杂度大大降低。在实验中,我们使用实验平台和室内测试性能的基本位置。从结果来看,LRR模型不适用于3D定位,基于PCA的方法优于KRR模型。然而,从对干扰的容忍度的角度来看,KRR被证明对照明变化和附加噪声具有出色的鲁棒性。Shim和Cho [30]提出了一种新的基于视觉的方法,使用天花板上的两个安装的远程摄像机在室内环境中定位移动机器人。该方法采用了摄像机图像与地面像平面坐标系之间的二维映射技术单应性被应用于图像平面的变换来自两个摄像机的图像在鸟瞰图中连接到地面图像平面,并产生二维地图。所研制的二维地图位置误差极限在7.1cm以内。通过一系列实验验证了基于二维地图的定位方法的有效性。在地面上的各种固定障碍物中,移动机器人可以仅使用二维地图成功地机动到目标位置,而Siagian和Itti [24]提出了一种使用生物学启发的视觉的机器人跟踪系统。该系统模拟了两种人类视觉能力:1)提取场景的主要特征和显著区域的处理使用蒙特卡罗定位算法,使机器人产生其位置。就像它不会在所有场景(仅区域)执行匹配一样,与SIFT关键点的数量相比,该过程更有效Siemiatkowska和Chojecki [16]提出了一种在不熟悉的室内环境中定位机器人家具 该机器人配备了一个单一的摄像机全向和图像转换在极坐标表示。 基于图像及其极坐标,提取环境的自然参考点。一个360度从环境的角度来看,机器人的位置可以很容易地估计,这些信息可以用来走你的路。该方法在真实的办公环境中使用移动机器人Navigator 1进行了测试,作者声称这种方法的主要缺点是它需要对视觉传感器进行良好的校准。Tamimi等人[19]提出了一种新的方法,减少了SIFT生成的资源数量,以及其提取和匹配时间。关键点的数量可以提前设置,计算时间与该数量成正比通过将该方法应用于机器人定位问题并使用粒子滤波器,他们可以使用较少的特征准确地定位移动机器人Wolf,Burgard和Burkhardt [17]提出了一种基于视觉的方法来定位移动机器人,该方法将图像恢复系统与Monte Carlo定位相结合。O图像恢复过程基于在图像平移和有限尺度方面不变的资源,因此系统能够检索相似的图像,即使在当前图像中仅看到对应场景的一这种方法在移动机器人的情境中特别有用,一旦机器人经常从不同的视角观看同一场景。作者声称,该系统能够在全球范围内估计机器人的位置,以可靠的方式跟踪它,并从位置故障中恢复。此外,它还可以处理场景中的动态方面,例如经过的人,以及里程计数据中的大量噪声Yuen和MacDonald [18]在自然地标提出了一种基于内部位置的算法,该算法通过三角测量、重建和比较(LTRC)来估计机器人位置。LTRC的实现使用的解释语言在机器人配备了全景视觉系统。实验结果表明,LTRC对RANSAC鲁棒估计方法有实际的改进 地标提取阶段有效地减少了搜索空间,同时允许对不完整的对应有一定的容忍度。此外,LTRC算法不会简单地丢弃自然地标的提取阶段之后的视觉信息。它根据高重建图像维度的表示生成相似性得分,而RANSAC找到低维度位置的估计的一致集合上述作者强调了几种用于移动机器人定位系统的计算机视觉技术,但也值得强调使用图像所固有的情况特别是在工业应用中,这可以在未来的工作中探索,因为环境可能有烟雾,图像可能会失真或模糊。尽管如此,移动机器人定位系统的当前和不断增长的应用是在自主车辆中,这些自主车辆已经被开发和优化多年,但是仍然具有关于定位和导航的有效性问题。Muhammad et al.(2019)和Khan et al. [35]提出了一种使用深度卷积神经网络(CNN)的烟雾检测方法,并强调他们的方法使用轻量级架构,考虑了对准确性,执行时间和部署可行性的所有必要要求。重要的是要强 调这种 技术的 鲁棒性, 它 已 在 不 同 类 型 的 环 境 中 得 到 验 证 :Muhammadet al.(2019)在雾监视环境和萨勒曼等人。(2019)在雾或不确定的物联网环境中。关于图像失真的问题,Hurrah等人(2020)强调了行业拥有能够比较传输和接收图像的系统的重要性,以避免方向和/或错误决策的问题。因此,他们提出了一种检测和自动校正畸变图像旋转角度的算法最后,强调了具有最大影响潜力的开放问题之一,即安全自动驾驶的定位和导航系统的开发[36]。指出挑战并指导分析专题,以便今后开展与有关专题有关的工作。它们表明,除了形状、大小和相对于三维位置的速度之外,避免事故也是至关重要他们描述了自主系统传感器融合分为两组,A.S. Silva Oliveira等人物联网和网络物理系统2(2022)6369¼¼¼¼¼¼¼¼¼¼¼¼¼¼¼¼¼¼¼¼¼¼¼¼¼¼¼¼¼¼¼¼¼ ¼¼算法:用于测量状态的,即,卡尔曼滤波器。6. 结论本文对移动机器人的视觉定位技术进行了系统的文献综述。检索包括截至2021年6月在IEEE、Web of Science、ScienceDirect和Scopus上发表的文章。我们可以通过所进行的研究观察到,有许多可行的解决方案可以解决机器人定位任务,通过视觉移动,大多数选定的文章都表明他成功地有效地执行了这项任务,具有良好的准确性,但由于没有标准来定义文章之间的精度因此表1中没有此信息。未来的研究可以通过单一模式来比较这些技术的准确性,因此,我们可以获得关于在类似于最初测试的环境中应用于某些位置的相同技术的准确性水平的更现实的信息,甚至可以在其他环境中执行该测试,并在它们之间进行比较,以确定哪种技术可以更好地执行该任务。此外,我们可以观察到,根据用于定位的技术,需要具有更大计算能力的平台,因此可以进行新的研究以确定从移动机器人到低端系统成本或低计算能力的最佳定位技术这项工作的主要贡献是表格的创建,总结了通过视觉定位的主要方法,对所选作品的关键词进行了统计分析,并在图中显示。 2并提供关于这一研究路线的一般观点,这对该领域的新研究人员非常有用,他们将知道迄今为止已经取得的成就。竞合利益作者声明,他们没有已知的竞争性经济利益或个人关系,可能会影响本文报告的工作。引用[1] Ja Fenerick,Cr Volante,工业的演变,自动化的好处以及巴西和世界机器人市场的前景,Mag.Technol. 中间截留17(1)(2020)734- 745。[2] VaOdebrecht等人,通过分析统计优化机器人加工,Floriano'polis,SC。 2020年。[3] Ferreira,Jab人工神经网络应用于移动机器人的轨迹学习,2020。[4] Jl De S. Pio,Thc Of Castro,An De C. Júnior,移动机器人作为支持计算机学习的工具,载于:巴西教育计算机研讨会(巴西教育信息学研讨会-SBIE)第1卷,2006年,第110页。497- 506 [Sl:sn],1.[5] J.Marchi等人,自主移动机器人的导航:研究方法的实施,弗洛里亚诺波利斯,SC,2001年。[6] Ln Couto,基于视觉的机器人定位系统用于自主车辆的参考点计算,圣保罗大学,2012年。博士学位(Doctorate)。[7] S. Campbell等人,我在哪里?本地化技术的移动机器人审查,在:IEEE。2020年第六届机电一体化和机器人工程国际会议(ICMRE),2020年,第10页。43- 47 [S1].[8] T.奥茨河齐格瓦特岛Nourbakhsh,Introduction to Autonomous Mobile Robots,MITPress,2005 [Sl]:Elsevier.[9] A. Morar等人,基于计算机视觉的室内定位方法的全面调查,传感器20(9)(2020)2641。多学科数字出版研究所。[10] J. Fuentes-Pacheco,J. Ruiz-Asce ncio,JmRendo′ n-Mancha,视觉同步定位和绘图:一项调查,Artif.内特尔Rev. 43(1)(2015)55- 81. 斯普林格。[11] Yd Yasuda,Leg Martins,Fa Cappabianco,移动机器人的自主视觉导航:系统性文献综述,在:ACM计算调查(CSUR)第53卷,ACM,2020年,第10页。 1- 34号。New York,NY,USA,1.[12] S.陈志华,机器人视觉定位技术,北京大学机器人工程研究所。自动9(6)(1993)785-800。ISSN 2374-958X。网址:https://ieeexplore.ieee.org/document/265922/。[13] M. Hashimoto,F.Oba,T.李文生,以彩色标示板定位移动式机器人,国立成功大学机械工程研究所硕士论文,1999。可从以下网址获得:https://www.scopus.com/inward/record.uri?Eid2-s2.0-0032676551。doi 10.1016%2fS0957-4158%2899%2900012-4 partnerID 40 md5 342748d789457bf53be698d0bd1a3673.[14] K. Kidono,J. Miura,Y.白井,使用人类引导经验的移动机器人的自主视觉导航,机器人。Autonom 40(2)(2002)121-130。ISSN 0921-8890。网址:https://www.sciencedirect.com/science/article/pii/S0921889002002373。[15] T. Jin,J. Lee,Mobile robot navigation by image classification using a neuralnetwork,IFAC Proc. Vol. 37(12)(2004)203-208. ISSN 1474-6670。可查阅:https://www.sciencedirect.com/science/article/pii/S1474667017314684。[16] B. 谢米亚特科夫斯卡河Chojecki,基于全景摄像机的移动机器人定位,IFAC Proc.Vol. 37(8)(2004)42-47。ISSN 1474-6670。网址:www.sciencedirect.com/science/article/pii/S1474667017319481。[17] J. Wolf,W. Burgard,H. Burkhardt,Robust visual based localization bycombining an image retrieval system with Monte Carlo localization,IEEETransact.机器人21(2) (2005)208-216。ISSN 1941-0468。见:https://ieeexplore.ieee.org/dowww.example.com/1416972/。[18] 袁德权,Ba Macdonald,基于地标匹配、三角测量、重建和比较的视觉定位算法,IEEE Transact.机器人21(2) (2005)217-226。ISSN 1941-0468。见:https://ieeexplore.ieee.org/dowww.example.com/1416973/。[19] H. Tamimi等人,使用粒子滤波器和迭代筛选的全方位视觉移动机器人的定位,机器人。Autonom 54(9)(2006)758 - 765。可从以下网址获得:https://www.scopus.com/inward/record.uri? Eid2-s2.0-33746991695。doi10.1016%2fj.robot.2006.04.018 partnerID 40&md5c5ee781d37468665c4dfd904eec14892.[20] E. Menegatti等人,动态环境中机器人定位的全向视觉扫描匹配,IEEE Transact。机 器 人22 ( 3 ) ( 2006 ) 523-535 。 可 从 以 下 网 址 获 得 :https://www.scopus.com/inward/record.uri? Eid2-s2.0-33745177290。doi10.1109%2fTRO.2006.875495partnerID40md50732ec1ab555f69fda3d9fe6d04934b7,https://ieeexplore.ieee.org/document/1638343/。[21] M.斋藤角Kitaguchi,Appearance based robot localization using regressionmodels,IFAC Proc.Vol.39(16)(2006)584-589。ISSN 1474-6670。网址:http://www.example.comwww.sciencedirect.com/science/article/pii/S1474667015342300。[22] A. Ramisa等人,鲁棒的基于视觉的机器人定位使用的局部特征区域检测器,Aut。机器人27(4)(2009)373-385。网址:https网址:www.scopus.com/inward/record.uri? Eid2-s2.0-72349083121。doi10.1007% 2fs10514-009-9136-9合作伙伴ID 40 md5 87efaed59cd9b10e7b9817d5e6500fbe,https://link.springer.com/article/10.1007%2Fs10514-009-9136-9。[23] 李永杰,严斌,宋俊,基于视觉和距离传感器有效组合的移动机器人定位,国际控制自动化杂志。7(1)(2009)97-104。可从以下网址获得:https://www.scopus.com/inward/record.uri? Eid2-s2.0-60349084330。doi10.1007%2fs12555-009-0112-0合作伙伴ID 40 md5 4e464aa164bf4625293028a4a4189b96,https://link.springer.com/article/10.1007%2Fs12555-009-0112-0。[24] C. 西亚吉安湖Itti,Biologically inspired mobile robot vision localization,IEEE Transact.机器人25(4)(2009)861-873。可查阅:https://www.scopus.com/inward/record.uri?Eid2-s2.0-69249208586。doi10.1109%2fTRO. 2009. 2022424合作伙伴ID 40 md58ff4dbbca3657b990e3682cd404c4cba,https://ieeexplore.ieee.org/document/5071253/网站。[25] C. Gamallo等人,基于全视的kld-mont carlo定位,Robot。Autonom 系统 58(3)(2010)295- 305。 ISSN 0921-8890。[26] R. Gonzalez等人,Combined visual odometry and visual compass for off-roadmobilerobots localization,Robotica 30(6)(2012)865-878. 网址:https网址:www.scopus.com/inward/record.uri? Eid2-s2.0-84865743705。doi10.1017% 2fS026357471100110X合作伙伴ID 40 md5 66f7f4273681362881c4406164bb2e77,https://www.cambr
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功