没有合适的资源?快使用搜索试试~ 我知道了~
认知机器人1(2021)168基于视觉的SCARA机械臂智能路径规划Yogesh Gautama,Bibek Prajapatia,Sandeep Dhakala,Bibek Pandeyaa,比金德拉·普拉贾帕蒂·阿a尼泊尔加德满都特里布万大学工程学院Pulchowk校区机械和航空航天工程系,邮编44700aRT i cL e i nf o保留字:SCARA目标检测势场路径规划计算机视觉a b sTR a cT本文提出了一种结合目标检测和势场算法的SCARA机械臂自主操作算法,通过RetinaNet模型对机器人的起始、障碍和目标状态进行定位和检测。该模型使用标准的预训练权重作为检查点,该检查点使用来自SCARA手臂工作环境的图像进行训练。 目标检测模型的结果。该算法进行了测试与一个真正的原型与有前途的结果。缩写应用编程接口API人工势场APF双向RRT B-RRT比较连续优化器COCO卷积神经网络Denavit-Hartenberg DH遗传算法Probably Road Map PRM基于卷积神经网络R-CNN的快速扩展随机树RRT区域检测SSD你只看一次YOLO电源单元PSU通用串行总线USB随机梯度下降SGD介绍自动化行业在过去十年中在全球范围内崛起。对传统重复性工作的高效率的需求导致了自动化行业的快速发展[1]。在自动化领域使用机器人来促进手工劳动在各个行业都得到了飞速发展。机器人操纵器构成了现代机器人系统的一个组成部分,因为它们能够在工作空间周围工作[2]。机器人机械手广泛应用于材料处理、数字电子装配、远程外科手术、包装、包装、喷漆、材料精密切割等领域,∗ 通讯作者。电子邮件地址:yogesh85gautam@gmail.com(Y. Gautam)。https://doi.org/10.1016/j.cogr.2021.09.002接收日期:2021年8月8日;接收日期:2021年9月26日;接受日期:2021年9月30日2021年10月8日网上发售2667-2413/© 2021作者。Elsevier B.V.代表KeAi Communications Co. Ltd.提供的出版服务。这是CC BY许可下的开放获取文章(http://creativecommons.org/licenses/by/4.0/)可在ScienceDirect上获得目录列表认知机器人期刊首页:http://www.keaipublishing.com/en/journals/cognitive-robotics/Y.高塔姆湾Prajapati,S. Dhakal等人认知机器人1(2021)168169[3]许多人认为,物料搬运和库存操作的手动操作可能会出现缺陷或损坏该产品.因此,分析、理解、改进并最终使这些强大的机器人系统适应不同的设计场景,对于使用户能够持续利用其优势变得非常重要。最近,工业机器人越来越复杂,以实现高度的自主性。路径规划是智能机器人的重要研究内容之一,系统是根据环境信息来调整机器人的运动[5]。路径规划的根本目的是在感知环境的情况下,找到一条从起点到目标点的最优、安全、无碰撞的路径[6]。环境类型(静态或动态)和路径规划算法是两个重要因素在解决路径规划问题。全局路径规划方法要求环境模型是静态的。不同算法与Dijkstra算法[7]一样,A_∞[8]、GA[9]、PRM[10]、RRT[11]、BRRT[12]和APF[13]可用于解决全局路径规划问题。所有的路径规划系统都需要对环境感知进行复杂的特征处理。从自然图像中提取环境信息是一个具有挑战性的问题,具有许多实际应用。此外,机器人操作器的对象检测和跟踪已经引起了人们的极大关注,旨在提高控制精度[14]。自动目标检测已经发挥了一个主要的作用,使机器人更灵活[15],并增加了他们在工业中的应用[16],使复杂的路径设计。机器像人类一样看到和检测的能力已经逐渐发展,并且已经提出了许多算法来实现目标。机器人视觉融合了计算机视觉和机器学习的先进技术和算法。 今天使用的许多流行的对象检测算法依赖于两阶段机制。 在R-CNN框架中建立[17],第一阶段生成一组可能的具有相应分数的对象位置,第二阶段对其进行分类。通过CNN完成的分类可能属于前景或背景类。通过一系列的进步[18-准确性和速度是任何目标检测网络的一些最重要的判断参数。然而,增加一个结果导致另一个结果的下降,即,更精确的模型可能需要更多的计算时间。而单镜头模型像YOLO[20]和SSD[19]都非常快;与Inception和ResNet等使用两级检测器。RetinaNet[21]由Facebook AI研究小组的研究人员于2017年提出。损失函数基于焦点损失,它降低了良好分类情况下的交叉熵损失,并且不会显著扭曲硬示例的值。因此,简单示例分类的损失值显著降低。在COCO基准测试中,RetinaNet[21]的性能优于其他已知的同类模型。该模型在特征金字塔网络中使用ResNet架构的前向网络,通过该网络提取必要的特征。类和BOX分别用于识别和定位。该架构的两个重要结果是类检测和对象定位。类检测是指对目标对象的类进行分类。类检测通常通过sigmoid计算和softmax函数,得分在0到1之间。值1表示给定类存在的100%概率,而0 是指给定类别的检测的零概率。对于较高的检测分数(通常在高于0.8的范围内),焦点损失会淡化交叉熵损失,而对于较低的亵渎,该值不会发生显著变化。目标定位是指为检测提供必要的边界框,这是一个回归任务。这项研究的主要目的包括• 智能路径规划中目标检测与势场算法集成• 在用于SCARA臂• 结合实际SCARA系统系统和方法机械设计PRR型SCARA机械手在SolidWorks 2020中设计[23]。棱柱接头中的线性运动通过导螺杆和步进电机布置来实现。机械手可在z轴上移动450 mm。同样,第一臂和第二臂的长度分别为180 mm和120 mm。采用1.25模数和20齿的定时齿轮从步进电机轴传递运动。同样,采用在臂端部上建模的1.25模数和63齿的滑轮来传递所需的运动。通过增材制造来制造臂轴承带齿轮让我们假设可以引入四个主要参数,通常称为DH参数,以描述机械手的各个连杆定义每个链路的参考系,以获得DH参数,如图所示。1.一、该图中使用的符号如下:• aj是从j轴到j轴的公法线距离 +1• α是沿着aj看时,j的轴必须扭曲以使其与j +1的轴对齐的角度• dj是两条法线aj − 1和aj之间的距离,沿关节轴从aj − 1到aj• θj是在垂直于关节轴的平面中从aj − 1到aj的关节角度假设第一个接头的X轴方向与第一个连杆的方向一致,计算的DH参数如表1所示。Y.高塔姆湾Prajapati,S. Dhakal等人认知机器人1(2021)168170Fig. 1. 关节轴采用PRR型号SCARA。表13 DOF SCARA的DH参数。联合������������������������1000���12 0���2���1 03 0���3���2 0图二. 等距视图(a)概念设计(b)详细设计(c)实际原型。直线导轨与直线轴承和丝杠一起充当“连杆1”。每个连杆,即“连杆1”、“臂1”和“臂2”,由步进电机致动。夹持器组件由伺服电机驱动,用于执行夹持动作。图2说明了SCARA臂从概念设计到实际原型的逐步发展。原材料的可用性和装配过程中的配合复杂性是修改初始概念设计的主要驱动力。SCARA臂构成半径为300 mm、高度为450 mm的半圆柱工作空间。控制系统SCARA机械手控制系统的核心是基于微芯片ATmega328P的Arduino Uno微控制器板。Arduino兼容板,通常称为CNC shield版本3.0,grbl v0.9,用作扩展Y.高塔姆湾Prajapati,S. Dhakal等人认知机器人1(2021)168171图三. 控制系统原理图。板,以方便步进和伺服电机的驱动。扩展板具有用于步进电机驱动器的三通道插槽和用于伺服电机的单通道插槽。控制系统的示意图如图3所示。通过USB端口的直流电源为微控制器供电。同样,步进电机由来自PSU的12V DC电源驱动。微处理器和电路板之间通过USB电缆连接到计算机进行串行通信。电源供应后,微型限位开关用于初始化的机械手。采用三个限位开关来限制各个连杆的行程限位开关通过来自Arduino板的5V电源激活,并计算精确在这项研究中使用的混合双极NEMA 17步进电机与1.80步距角和3.7公斤厘米的保持扭矩电机控制通过DRV 8825和A4988步进电机驱动器实现每个驱动器被用来控制一个独特的步进电机。A4988驱动器可以控制步进电机的速度和旋转方向,驱动能力高达35V和± 2A。电机驱动器能够使用两个销即,步和双足。STEP输入控制电机的微步控制输入控制电机的旋转方向DRV 8825的引脚排列和接口与A4988相似。它通常在8.2V至45V之间工作,每相可提供约1.5A的电流,无需散热器或强制通风。视觉和路径规划系统通过运行在PC机上的MATLAB接口集成到单片机中。 在MATLAB环境下运行的系统,使用Arduino的MAT-LAB支持包进行控制。从获得的检测坐标,逆运动学被用来计算所需的关节角度和参数。逆运动学、路径规划和期望轨迹通过MATLAB代码计算,然后传输到微控制器。虽然所有的计算 发生在MATLAB中,只有所需的角度数据传输到微控制器,以限制MATLAB之间的通信 微控制器。此外,由于SCARA臂在每次新操作时都将自身重置到原始位置,只有在长时间运行后才需要系统。视觉系统视觉系统与SCARA臂的物理距离很远。它由一个Raspberry模块和一个连接到顶部的Pi凸轮组成。一个5英尺高的木架(图5)。如图4所示,支架直接位于工作空间上方的中心。支架的高度经过选择,以便视野涵盖整个工作空间。捕获的工作空间的尺寸为128 mm × 92 mm。从数字图像处理中获得的数值数据是以数字形式的。 因此,它被映射到极坐标中,随后被馈送到SCARA操纵器的控制系统中。数字图像的大小由分辨率决定摄像头的照片分辨率的测量单位是像素.然而,在我们的真实系统中,距离是以长度因此,第一个任务是将piX el值转换为长度(厘米)。因为,相机支架的高度和摄像机底座和机器人之间的直线距离是恒定的,摄像机捕获的场也是恒定的,其宽度为128毫米,高度为92毫米给定情况下的图像分辨率为480 × 640,这是系统中使用的Pi-cam的默认分辨率。因此,表2中给出了在piXel和长度之间建立的映射。对于未改变的相机位置,捕获空间的物理尺寸,即,92 × 128像素2不会改变,即使所捕获的图像的分辨率改变。因此,可以通过改变pi x el值来遵循类似的过程,以计算pi x el值。Y.高塔姆湾Prajapati,S. Dhakal等人认知机器人1(2021)168172见图4。 通过Pi-cam观察到的SCARA系统工作空间。图五、 完整的工作空间,包括左上方的相机模块和右上方的电源。Y.高塔姆湾Prajapati,S. Dhakal等人认知机器人1(2021)168173���322���2���323表2piX el和长度之间的映射。沿x轴(列)沿y轴(行)640 = 128 480 = 92������������������������������������������������1= 0.2 1 = 23闪烁120���������������������������1= 5()1= 120()������������������������������������������������������������������������������������������������������������������������������如果捕获图像的分辨率发生变化,则为缩放因子。然后将机器人世界坐标系中的笛卡尔坐标映射到步进电机的极坐标。根据测试图像,“帧0”的数字坐标������������������是(305,148),因此图像的数字坐标(,)被转换为真实坐标(,),其中等式(1)和(2)。������=������������=������(一)(二)设,θ1和θ2分别为臂1和臂2的关节角度。对于初始配置(图3),Δ1和Δ2都为零。在控制系统中,这两个角度都是相对于y轴测量的,并且当从顶部观察时,这两个角度在逆时针方向上都是正的。因此,基于几何和三角关系的映射如下:(3)、(4)、(5)及(6)���1=tan−1(������2=���������= ±arccos(102+102−102−102)(5)���=±arccos2−2−2������������(六)⎜⎝2���2������(这里,由于臂的长度是已知的,所以使用余弦定律来计算m和m������因此,来自相机的数字数据是转换为步进电机的角度输入。目标检测算法目标检测算法的主要目标是区分和定位起始、目标和障碍状态以及大小来规划一条合适的路径。在这项研究中,Tensor-Wavelow 2对象检测API[24]在Google Colab环境中运行。[25]用于物体检测。对象检测API具有各种易于使用的模块,用于训练和部署对象检测模型。训练图像和测试图像在Colab中使用对象检测API中提供的“colab_utils”包进行注释。这些注释为模型提供了对象在工作区中的位置。用于开始、障碍和目标的三个类类别被转换为用于模型训练的独热编码。在Coco 2017 Dataset[22]中训练的预训练模型权重被用作进一步训练模型的检查点。该模型使用来自配置空间的78张图像进行训练。训练图像的注释如图所示。第六章对象检测API还提供了一个基于类预测和box编码的损失函数。在训练过程中,模型同时提供了类和boX编码。预测box和实际BOX的坐标位置的误差被称为定位损失,而预测检测对象的实际类别的概率的误差被称为分类损失。这两个损失,即,本地化损失和分类损失构成最终损失,基于该最终损失更新可训练变量类损失是指在预测真实类的概率时的误差,而局部化损失是在box编码的位置中的误差将这两种损失结合起来,可以确保在训练过程中平衡定位和分类精度。研究中遇到的训练损失在结果章节中描述注释为开始、目标和障碍状态提供边界框的坐标。注释被规范化,即,它们在0到1的范围内,这使得训练以及检测大小不变。将获得的相应值乘以图像的分辨率以获得物体的真实坐标。模型只接受分辨率中的输入640 × 640,因此,必须将图像处理到指定的分辨率,用于训练和预测集。由于边界框是标准化的,因此分辨率不会影响结果。引入RetinaNet的第一个变化是类的数量。类的默认数量是90,但对于机械臂,它是三个,即,开始、目标和障碍。创建与这三个类中的每一个对应的类字典。由于该问题有不同数量的类,因此需要在原始RetinaNet模型中进行修改。这项任务将需要RetinaNet模型的两个主要部分,即,特征提取器和边界框X预测器被重新使用。边界框预测器使用回归进行预测。���Y.高塔姆湾Prajapati,S. Dhakal等人认知机器人1(2021)168174������(���00图第六章 训练图像注释示例。然而,由于类别数量和类型与原始模型不同,因此分类层也需要更改。被修改的部分是对应于对对象进行分类的部分的BOX-head和class-head。对应于这些层的权重,即,在训练期间训练并更新分类层、BOX头和分类头通过势场的基于势场的路径规划器使用吸引场和排斥场的概念[26]。吸引场在目标态附近产生一个势很低的场,而在远离目标态的地方产生一个势很高且不断增加的场。排斥场产生在障碍物内和附近具有非常高的电位。结合吸引场和排斥场,一个具有强吸引力的势场创建朝向目标状态的盆地,使得路径总是倾向于远离障碍物移动。在数学上,排斥场������������(���)是根据距离函数���(���)定义的,它返回指定配置空间()中给定点到最近障碍物的距离���,如等式(1)所定义。(七)、距离障碍物1000的点不受排斥场的影响,而从1000点到障碍物的电势呈双曲线上升。���{���(1 −1)2()������≤}0()>0������������������=���((��� −������)2 +(��� −��� )2)(8)���������������������������������(������������(���) =(七Y.高塔姆湾Prajapati,S. Dhakal等人认知机器人1(2021)168175见图7。提出的算法的流程图。吸引场在数学上定义为Eq。其中(������,������)是目标坐标,(���,���)是计算电势的坐标,并且���是场的比例因子。常数λ和λ分别为排斥场和吸引场根据配置空间的拓扑结构,这些常数需要调整。对于很少数量的障碍物,需要较低的排斥场权重。在实验中,障碍物覆盖了15%到20%的配置空间。因此,期望保持最大吸引势与最大排斥势的4:1的比率此外,由于在组合场中应用梯度下降,因此需要更平滑的曲线因此,λ和λ被校准为800和1/700以保持期望的比率以及平滑度。这些常数在测试各种配置时都能很好地因此,在远离目标的点处产生更高的电势,并且电势值随着其接近目标而减小,其中目标经历精确的零电势。组合场由Eq.表示。(九)、一个基于梯度的规划器是基于所得到的场函数(fieldplanner)来实现的。���梯度场最初是从给定的场生成的,然后遵循梯度递减的路径。由此产生的路径是沿着朝着目标的潜力递减的路径来追踪的。伪代码如下:• 创建一个空列表• while n max_iterations• 如果当前=目标,则中断• gradient_X,gradient_y = gradient(X,y)/norm(gradient(X,y))• new_point = current + [gradient_X,gradient_y]• 将new_point添加到列表• current = new_point这个列表包含了所有通向路径的路点。算法的速度可以通过乘以gradient_X来改变和gradient_y与计算的因子。较低的缩放因子会减慢该过程,同时保持路径的平滑度Y.高塔姆湾Prajapati,S. Dhakal等人认知机器人1(2021)168176见图8。 训练损失。图第九章 类别阈值为0.8的模型检测的测试结果。而更高的比例因子可能导致更快地收敛到目标,但是可能失去平滑性。然而,本文提出的算法使用的法向量的数值缩放因子为1。结合目标检测模型和势场算法的所提出的算法的流程图如图所示。第七章结果和讨论出于训练目的,SGD用作优化器,学习率为0.01,动量为0.9。创建200个批次批量大小为4。 训练结果与相应的损失(焦点损失)[21]如图所示。 八、培训不会超过200批,因为损失保持不变,并且在损失函数 该模型在测试图像中进行测试,包括成功和失败预测的样本结果包括在图9和10,在不同的场景。模型预测输出BOX编码、对应的类和类检测分数。类检测分数以0到1的概率表示。在训练图像中,值1是指对应类别的类别分数,目标属于。在测试图像中,开始、障碍和目标状态的平均类得分分别为0.82、0.91和0.92。所呈现的结果是从90个测试场景中进行的测试,对象数量,方向和位置的变化。详细的数学结果见表3。正常检测的最小值分别为0.78、0.69和0.79,用于障碍、开始和目标状态。这里,正常检测指的是正确的分类。当阈值被设置为0.2的低值以观察模型性能时,观察到许多错误分类和多重分类(图11)。错误分类是指错误的分类,而多个分类是指一个对象有一个以上的分类。虽然有多种分类和错误分类在图11中似乎占主导地位,应当注意,已经获得了将检测分数阈值设置为0.2以观察所有可能的场景都可以被模型检测到检测分数简单地说就是检测到的物体的概率Y.高塔姆湾Prajapati,S. Dhakal等人认知机器人1(2021)168177图10. 阈值为0.67的各种测试场景。表3检测分数总结。参数检测评分障碍物出发目标平均值0.91 0.82 0.92标准差0.09 0.11 0.12最大值0.98 0.9 0.95最小值0.78 0.69 0.79多个分类的最大值0.28 0.25 0.22错误分类的最大值0.41--图十一岁阈 值为0.2的误分类和多分类图像。Y.高塔姆湾Prajapati,S. Dhakal等人认知机器人1(2021)168178图12个。 路径规划图中忽略SCARA 主体作为障碍物。Y.高塔姆湾Prajapati,S. Dhakal等人认知机器人1(2021)168179图13岁 将SCARA主体视为障碍物的路径规划流程图。属于特定类别。阈值忽略所有检测分数低于指定数值的检测。在这些不同类型的错误分类中,最高得分为0.41。对于此错误分类为最大检测如果得分远低于拟议的0.67阈值,则不会对模型的应用造成风险。平均预测得分由于开始相对较低,因此对于得分阈值0.8,存在一些缺失的分类(图9)。使用最终实现阈值0.67,其中未观察到测试图像的任何缺失和错误分类。这提供了改进的检测精度。由于环境是严格设置为测试目的,它是高度控制的,任何其他异物Y.高塔姆湾Prajapati,S. Dhakal等人认知机器人1(2021)168180表4正确分类的百分比。阈值分数正确分类障碍物出发目标0.9 85% 81% 82%0.8 92% 83% 84%0.7 95% 90% 92%0.67 100% 99% 99%在工作场所避免。因此,即使是0.67的低阈值分数也很好。表4列出了不同阈值水平的正确分类百分比。图9所示的结果仅用于可视化目的,本研究的真正兴趣在于以下数值:所获得的类和对应的Box编码。这些值被输入到势场算法以获得期望的路径。该算法的工作过程的示例在图1和图2中示出。12和13最后采用了两种不同的方法路径规划第一种方法是一个简单的实现所解释的程序,而SCARA机构也被建模为第二种情况下的障碍。对于身高较长(> 20厘米)的身体,SCARA身体阻碍了手臂的平稳运动。这是解决建模的主要SCARA框架太作为一个障碍,创造了一个排斥场在主机的SCARA臂,如图11所示。对于所考虑的所有情况,所有三种状态的类准确性,即,启动、障碍和目标实现阈值最佳结果0.67. SCARA的末端矢量的抓取半径为3毫米,而目标的半径为2.5毫米。在所有测试实例中,末端弹射器正确地抓住了目标,这意味着目标在行进过程中没有翻滚或掉落。因此,起始状态的BOX编码是2.5π/2的半径。目标位置直径为6.5毫米,目标物体������目标在所有测试的目标范围内。由于所有测试都达到了目标状态,目标状态是3.25毫米的半径。结论在受控的测试环境中,视觉和势场的集成算法对所有三类都有效,类阈值为0.67。SCARA Arm可以在没有任何人类帮助的情况下通过避开障碍物来检测和移动物体。对于2.5毫米的目标半径,起始位置的位置精度为99%,而对于目标状态的位置精度为99是99%的目标半径为3.25毫米。对于工业级部署,所提出的方法可以成功地用于自主拾取和放置活动。这种部署必须限于严格控制的环境,保持恒定的亮度和没有任何外来物体。对于不可能有严格环境限制的控制较少的部署,必须遵循更严格的培训。这可以通过增加训练规模和引入多种可能的场景来实现,如可变照明,异物的存在,人类的存在等。竞争利益作者声明,他们没有已知的竞争性经济利益或个人关系,可能会影响本文报告的工作数据可用性本研究中生成和分析的数据将应要求提供给通讯作者。资金作者没有收到任何财政支持的研究,作者,和/或出版这篇文章。引用[1] D Autor,A. Salomons,自动化是否会取代人工智能?生产率增长,就业和劳动力份额,布鲁金斯帕普。经济法(2018)2018,doi:10.3386/W24871。[2] F Zacharias,C Borst,G. Hirzinger,捕获机器人工作空间结构:表示机器人能力,IEEE国际会议Intell。机器人(2007)3229 -3236,doi:10.1109/IROS.2007.4399105。[3] I López-Juárez,M Castelán,FJ Castro-Martmez,M Peña-Cabrera,R.利用物体的轮廓、形状和深度将识别能力嵌入工业机器人,J。 Appl. Res. Technol.11(2013)5 -17,doi:10.1016/S1665-6423(13)71511-6.[4] AAG Siqueira,MH Terra,M.Bergerman,机器人鲁棒控制,Robust。 Control Robot(2011),doi:10.1007/978-0-85729-898-0.[5] 吴平,曹英,何英,D. Li,基于视觉的机器人路径规划与深度学习,Lect。Sci.(包括Subser。Lect. Notes Artif.内特尔Lect. Notes Bioinformatics)(2017)10528 LNCS:101-11,doi:10.1007/978-3-319-68345-4_9。[6] 戴旭,龙世,张志,D.龚,基于蚁群算法的移动机器人路径规划,前沿。神经机器人。0(2019)15,doi:10.3389/FNBOT.2019.00015。Y.高塔姆湾Prajapati,S. Dhakal等人认知机器人1(2021)168181[7] SA Fadzli,SI Abdulkadir,M Makhtar,AA. Jamal,Robotic indoor path planning using dijkstra's algorithm with multi-layer dictionaries,2015 IEEE 2nd Int.Conf. Inf. Sci. Secur ICISS 2015(2016),doi:10.1109/ICISSEC.2015.7371031.[8] F Duchon,A Babinec,M Kajan,P Beno,M Florek,T Fico,et al.,移动机器人的路径规划与改进的星形算法,Procedia Eng. 96(2014)59 -69,doi:10.1016/J.PROENG.2014.12.098。[9] S Choueiry,M Owayjan,H Diab,R. Achkar,在静态环境中使用遗传算法进行移动机器人路径规划,2019年第4届国际会议。工具工程应用ACTEA 2019(2019),doi:10.1109/ACTEA.2019.8851100。[10] LE Kavraki,P Švestka,JC Latombe,MH.奥弗马斯,概率路径规划在高维配置空间中的路线图,IEEE trans.robot。自动12(1996)566-580,doi:10.1109/70.508439。[11] JBruce,M. 陈文龙,机器人导航的实时随机路径规划,北京交通大学学报,2001。 机器人 3(2002)2383 -2388,doi:10.1109/IRDS.2002.1041624。[12] E Dönmez,AF Kocamaz,M. Dirik,Bi-RRT路径提取和曲线拟合平滑,基于视觉的配置空间映射,IDAP 2017 - Int. Artif。内特尔数据处理Symp.(2017),doi:10.1109/IDAP.2017.8090214.[13] T Weerakoon,K Ishii,AAF. Nassiraei,一种基于人工势场的移动机器人导航方法,以防止死锁,J.Artif。内特尔软计算Res. 5(2015)189-203,doi:10.1515/JAISCR-2015-0028。[14] D Guo,Z Li,AH Khan,Q Feng,J. Cai,机器人机械手的重复运动规划与保证精度,IEEE Trans. Ind. Informatics 17(2021)356 -366,doi:10.1109/TII.2020.2970172。[15] Zha F,Y Fu,P Wang,W Guo,M Li,X Wang,et al.,机器人视觉系统的语义3D重建。2020第10(10)(2020)页1183 1183,doi:10.3390/APP10031183。[16] C Mineo,M Vasilev,B Cowan,CN MacLeod,SG Pierce,C Wong,et al.,为新的工业4.0自动化质量检测范例启用机器人自适应行为功能,Insight无损检测条件。监测。 62(2020)338 -344,doi:10.1784/INSI.2020.62.6.338。[17] R Girshick,JDonahue,T Darrell,J.Malik,Rich feature hierarchies for accurate object detection and semantic segmentation,Proc IEEE Comput. Soc.Conf. Comput.可见模式识别(2013)580[18] RGirshick,J Donahue,T Darrell,J. Malik,Rich feature hierarchies for accurate object detection and semantic segmentation,in:Proc. IEEE计算Soc.确认补偿目视模式识别,IEEE Computer Society,2014,pp. 580 -587,doi:10.1109/CVPR.2014.81。[19] W Liu,D Anguelov,D Erhan,C Szegedy,S Reed,C-Y Fu,et al.,SSD:Single Shot MultiBoX Detector,in:Lect Notes Comput Sci(Including Subser LectNotes Artiff Intell Lect Notes Bioinformatics),LNCS,2015,pp. 21 -37,doi:10.1007/978-3-319-46448-0_2。[20] JRedmon,S Divvala,R Girshick,A. Farhadi,《You Only Look Once:Unified,Real-Time Object Detection》,IEEE Comput。Soc. Conf. Comput. 可见模式识别2015年(2016年12月)779[21] 林泰,林志玲,林志玲。马赫内特尔42(2020)318-327,doi:10.1109/TPAMI.2018.2858826。[22] COCO-Common Objects in Context n.d.https://cocodataset.org/#home(2021年8月[23] SOLIDWORKS2020:提高性能|SOLIDWORKS n.d. https://www.solidworks.com/media/solidworks-2020-improved-performance(2021年8月7日[24] models/research/object_detection at master· tensor tensor crowd/models n. d. https://github.com/tensortensorflow/models/tree/master/research/object_detection(2021年8月5日访问)。[25] 欢迎来到Colaboratory-Colaboratory n.d.https://colab.research.google.com/notebooks/intro.ipynb(2021年8月[26] YK Hwang,N.Ahuja,路径规划的势场方法,IEEE Trans.机器人自动 8(1992)23 -32,doi:10.1109/70.127236。
下载后可阅读完整内容,剩余1页未读,立即下载
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- 京瓷TASKalfa系列维修手册:安全与操作指南
- 小波变换在视频压缩中的应用
- Microsoft OfficeXP详解:WordXP、ExcelXP和PowerPointXP
- 雀巢在线媒介投放策划:门户网站与广告效果分析
- 用友NC-V56供应链功能升级详解(84页)
- 计算机病毒与防御策略探索
- 企业网NAT技术实践:2022年部署互联网出口策略
- 软件测试面试必备:概念、原则与常见问题解析
- 2022年Windows IIS服务器内外网配置详解与Serv-U FTP服务器安装
- 中国联通:企业级ICT转型与创新实践
- C#图形图像编程深入解析:GDI+与多媒体应用
- Xilinx AXI Interconnect v2.1用户指南
- DIY编程电缆全攻略:接口类型与自制指南
- 电脑维护与硬盘数据恢复指南
- 计算机网络技术专业剖析:人才培养与改革
- 量化多因子指数增强策略:微观视角的实证分析
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)