没有合适的资源?快使用搜索试试~ 我知道了~
阵列15(2022)100195基于街道级影像和空间数据Roman Prykhodchenko,PaweyskruchAGH科技大学自动控制与机器人技术系,克拉科夫,波兰A R T I C L E I N F O关键词:自动驾驶汽车深度学习场景分类场景分类空间数据A B S T R A C T理解场景的上下文是新一代自动驾驶汽车最重要的方面之一。对于人类来说,通过一次观看图像来识别场景上下文是一个非常琐碎的任务,然而,对于计算机来说,这仍然是一个具有挑战性的任务。这个问题可以通过使用深度学习模型进行场景分类来自动标记数据来解决。依靠场景类型标签,我们可以选择相关场景 准备一个平衡的数据集,以使用来自特定路况这项研究提出了一种基于深度卷积神经网络(CNN)的新框架,用于街道级汽车图像的自动道路场景分类。为了评估我们的方法,我们使用了一个著名的自主基准数据集,从中提取地理位置数据,并将其与场景分类模型的预测相结合,以获得地面真实标签来训练和评估ResNet-50模型进行场景分类。的结果和比较与国家的最先进的方法。1. 介绍汽车场景包含许多细节,场景的数量是无限的。计算机视觉算法对特定场景进行分类并预测正确标签的能力对于提供自动驾驶车辆的安全等级目前在图像分类方面的成就是显著的,尽管大多数努力建立在对广泛的图像类别进行分类[1,2]。深度卷积神经网络在以对象为中心的ImageNet分类基准测试中显示出令人印象深刻的分类结果和持续改进[3]。 然而,场景分类是进一步改善自动驾驶视觉感知的重要步骤。以场景为中心的地方- CNN,用于工作中引入的场景分类/识别[4],它已经在来自205个场景类别的地方(包括户外场景)的250万张图像上进行了训练。一个扩展版本的数据集与2.1图像分类的365个类别已经提出 在工作中[5]。场景级任务与以对象为中心的任务特征学习相比更具挑战性,因为场景的多样性和场景中可能的组合数量场景分类主题在机器人领域已经得到了广泛的研究,例如语义映射[6,7],其中语义信息用于帮助移动机器人在室内环境中进行高级导航许多方法通过检测通常属于特定场景的特定对象来在汽车数据集的情况下,场景语义可用于场景分类,例如建筑物、人行道、停车场和其他可以代表城市道路状况的建筑。另一方面,典型的农村场景可能是丰富的植物或植被。在高速公路场景中,道路将是场景中的主导类这些数据集的场景标签(即类别)主要从以下几个方面进行定义:• 天气类型和光照条件[8]。• 场景中的静态物体、建筑物、桥梁、隧道,例如[9],• 特殊交通场景。• 交叉口分类在大多数情况下,自主数据集不提供交通场景标签,而仅提供对象级属性和原始论文[10]中数据集的一般描述。在某些情况下,我们对每个视频片段都有场景类别,而没有精确的每帧注释[10]。然而,没有提供交通状况的注释。对于汽车数据集来说,道路场景的视觉分析和标记将非常耗时。在本文中,我们研究图像分类的背景下,道路场景分类的汽车数据集。我们的重点是场景分类/分类是基于单个图像的类别,如城市,农村,高速公路道路场景。为了实现它,我们使用两个卷积神经网络,一个用于从对象级类中获取场景标签。基于图像的场景标签已与我们基于地图的方法的输出相结合,该方法使用空间∗通讯作者。电子邮件地址:prykhodc@agh.edu.pl(R. Prykhodchenko),pawel. agh.edu.pl(P.Skruch)。https://doi.org/10.1016/j.array.2022.100195接收于2022年5月15日;接受于2022年5月24日2022年5月30日在线提供2590-0056/© 2022作者。爱思唯尔公司出版这是CC BY许可下的开放获取文章(http://creativecommons.org/licenses/by/4.0/)。可在ScienceDirect上获得目录列表阵列期刊主页:www.elsevier.com/locate/arrayR. Prykhodchenko和P. 什克鲁赫阵列15(2022)1001952场景分类数据。第二个残差深度卷积网络[11]是基于前面提到的方法的标签进行训练的。我们认为,场景条件标记可以用于在线和离线应用,例如自主数据集的语义映射和驾驶辅助。论文的其余部分组织如下:第2节给出了相关工作的回顾,第3节解释了我们提出的方法和系统架构。 第4节介绍了所提出的方法的场景分类的结果。最后,我们总结了我们的研究结果和进一步研究的途径2. 相关工作我们的工作涉及三个相互关联的研究领域:(i)一般的图像分类,(ii)交通场景分类,(iii)空间数据的图像分类。一般的图像分类。图像分类的问题最初是开发分类系统,这些系统将在PASCAL VOC竞赛中获得最佳的准确度结果[1]。最好的方法之一[12,13]是基于提取许多低级局部特征,将其转换为一个直方图,并使用非线性核分类器(如支持向量机(SVM))来执行分类。性能的下一步是使用空间Fisher向量(SFV)[14,15],它聚合局部描述符特征,用统计数据对其进行编码,拟合高斯混合模型(GMM),并将其馈送到核SVM分类器。但2012年研究表明,卷积神经网络(CNN),即所谓的AlexNet[16],在ImageNet数据集上以监督的方式进行训练,其性能优于Fisher向量。下一代深度网络架构进一步提高了分类准确性:VGGNet [17],GoogLeNet [18],ResNet [11]表明网络深度对于取得成功至关重要。交通场景分类。在基于图像的场景分类中的早期工作提出使用在图像上检测到的每个对象的概率转换成矢量以便对场景进行分类,其中 每个对象被认为是场景类之一的典型[19]。 另一种常见的场景分类方法是使用语义标签。在这项工作中,[20]场景语义分割标签被用来分类13个城市纹理类别,包括不同类型的道路布局,汽车,行人和车辆前方的行人交叉口的存在。在用于理解交通场景的语义标签的论文[21,22]中,CNN语义分割网络在来自相同位置但在不同天气或光照条件下拍摄的图像上进行了训练。在本文中,[9]从DenseNet-121深度网络架构中提取的池特征用于训练具有RBF核的SVM分类器,用于交通场景分类:高速公路,道路,隧道,出口,沉降,立交桥,摊位,交通。最近的另一项工作[23]提出了一种基于resent-50的交通场景分类方法,在Places 365数据集上进行了微调此外,还添加了标准的长短期记忆模块(LSTM)架构,这允许通过时间方面来改进结果空间数据的图像分类。基于空间数据的城市场景识别,在大多数情况下是卫星图像,这在提高城市土地利用率和土地利用监测方面具有重要的应用价值[24]。一种积极使用的深层网络策略,通过探索高分辨率图像的深层特征来预测地理对象[25]。这种方法有助于提取该区域的语义内容并生成高分辨率的语义地图,这可能在为自动驾驶汽车开辟未来道路方面发挥关键作用。获取语义标签的另一种方法是使用OpenStreetMap(OSM)[26],该项目旨在共享提供用户生成的街道地图的知识集合。每张地图由Fig. 1. 道路场景分类框架。在大多数情况下,通过手动标记[27]或以半自动方式使用归一化差异植被指数(NDVI)从航空或卫星图像[28]进行植被检测生成的瓦片。3. 方法为了弥补目前的知识差距,我们引入了一个并行深度CNN模型框架,从汽车数据集的街道级图像该框架见图。1包括用于场景分类的三种不同方法:• 基于地图的分类方法使用地图区域的颜色 以基于典型用于不同区域的预定义调色板来区分区域的类型。• 卷 积 神 经 网 络 ( CNN ) 在 Places365 数 据 集 上 训 练 。 它 是 在Places365标准数据集上训练的,从365个场景类别中获取180万张图像,每个类别最多5000张图片。我们从365个班级中选出38,分别对城市、乡村、高速公路的典型场景进行预测,并将其预测得分相加,最终确定场景类别。它的目的是了解街道级图像的微妙之处,尽管天气条件和场景的动态变化,高度关注细节。• 残 差网 络ResNet-50在 包含 来 自流 行的 自 主数 据 集( 例 如,KITTI,nuScenes)来检测城市、农村和高速公路场景的发生,不管天气和光照条件如何,对场景上不同级别的细节进行分布式关注接下来,我们定义典型特征来为每个类建立地面真值标签。城市条件。 根据市区的情况,我们假设这是一个建成的- 上地区,具有高人口密度和基础设施的人造环境。大多数情况下,它是城市地区或居民区的公共道路,有窝点住宅楼,可能会有大量人口和许多公共场所。农村条件。在农村地区的情况下,我们可以考虑与城市相反的情况,人口密度低,人工基础设施总数少。这样的地区远离城市,在现场你可以看到很多植被。R. Prykhodchenko和P. 什克鲁赫阵列15(2022)1001953图二. 此图显示了在地图上绘制的全球定位系统(GPS)轨迹,并根据基于地图的分类场景标签进行了着色,其中(a)城市场景为蓝色,农村场景为绿色(b)高速公路场景为橙色。(For对本图图例中所指颜色的解释,读者可参考本文的网络版。)公路状况。高速公路的定义可以简单地描述为主要或公共道路。大多数公共道路至少有两条车道,每个方向一条车道,由车道标记分开。公路是城市和农村的区别,最大的特点是公路占主导地位。然而,公路可以穿过城市或农村,这意味着城市和农村条件中固有的许多因素。在大多数公路地图上,高速公路通常标记为深黄色或橙色。3.1. 地图分类KITTI(卡尔斯鲁厄理工学院和丰田技术研究所)数据集默认提供从内置于汽车中的不同传感器源收集的原始数据,包括来自全球定位系统(GPS)传感器的位置数据。以这样的方式提供,对于每个视觉帧,我们具有附加的一组元数据,例如纬度、经度、高度、速度和加速度,它们存储在单独的文件中,但具有相同的时间戳,这允许我们在视觉帧数据和元数据之间进行关联。基于GPS位置数据(纬度,经度),我们可以在地图上绘制汽车的位置,这使我们能够看到某些帧被收集的位置。在图2中,GPS轨迹基于在不同的道路条件下。下一步将是使用地理位置数据和高清地图来定义一个类,在该类中拍摄帧。 在这项工作中,我们使用栅格空间数据,其中每个像素代表离散值,其可以基于RGB(红、绿、蓝)通道中的每一个的示意性定义的阈值被转换成一类道路状况。在应用程序中,OpenStreetMap提供的自主数据标签可以在像素级上进行过滤,其中颜色表示不同类型的区域,例如灰色-城市区域,绿色或白色-木材,杆,橙色和黄色作为高速公路和公共道路。使用OpenStreetMap进行基于像素的分类的结果如图所示。 3.3.2. Places 365-CNN架构Places-CNN的架构基于流行的对象检测CNN架构、AlexNet、GoogLeNet和VGG 16卷积层CNN。在Places上训练的CNN的注意区域的可视化显示,对象检测器作为场景分类的中间表示出现地点-CNN训练了高度多样化的场景,超过180万张图像,以预测场景图三. 转换为标记区域的光栅地图示例。 在没有文本注释的原点光栅地图的顶部。在底部是标记地图,其中颜色:红色黑色是高速公路,绿色是乡村。(For关于本图图例中颜色的解释,读者可参考本文)。来自PlacesCNN的365个场景类别,室内/室外类型,场景属性和类激活图。Places 365-Standard数据集的原始版本扩展到800万张训练图像,并作为ILSVRC挑战赛的一部分参加了Places Challenge 2016。作为输入图层,VGG 16-Places 365采用图像(224× 224× 3)。然后,图像通过一系列卷积层,其中过滤器使用3× 3的感受野,保持空间分辨率。空间池化由五个最大池化层执行,它们遵循一些卷积。层和R. Prykhodchenko和P. 什克鲁赫阵列15(2022)1001954见图4。 VGG 16-Places 365架构。在2× 2像素窗口上执行,步幅为2。然后,从卷积中出来的扁平向量进入两个稠密层,随机丢弃权重,最终稠密层预测365个位置类的值。VGG 16-Places 365架构在图中呈现。四、3.3. ResNet-50架构残差网络架构在2015年ImageNet大规模视觉识别挑战赛(ILSVRC)中获得了目标检测和定位任务的最佳结果,在ImageNet测试集上的错误率为3.57%。ResNet-50是一个卷积神经网络,它有50层深度,具有跳过连接,以适应来自前一层的输入, 下一层的形状没有任何改变。这使得网络的速度和性能与其他网络相比有所作为ResNet-50的输入层,训练和测试图像通过迁移学习调整为(224× 224× 3)前馈。作为第二层,我们有一个大小为7× 7的卷积运算,一个MaxPooling层,大小为3× 3。以下层显示为两种模式下的残差模块序列:卷积块(CB),它改变输入的维度;身份块(IB),它不会改变输入的维度下一篇:AveragePooling层下采样每个7× 7平方的平均值,广场最后,用Softmax对类进行分类。ResNet-50的架构如图所示。 五、4. 实验和结果在这个实验中,我们使用两种方法:基于地图和基于图像的方法,用于自动生成地面真实标签。在对结果进行目视检查后,我们决定将两种方法的预测结合起来,以折衷最终用于训练的结果。一个ResNet-50网络来分类道路场景地面图像。4.1. 地面实况标签协议为了验证这些方法的有效性,我们绘制了一个混淆矩阵,以查看基于地图的方法和Places365网络方法之间的不匹配。在图6中,我们可以看到农村类与城市类有许多不匹配,将基于地图的方法与Places365方法进行比较。这可能是由于启发式基于地图的方法的限制,其中每个类的边界可能被管理员错误地定义,或者地图上的颜色方案错误地表示道路类型或周围区域。图中正确分类的示例。 8和错误分类的图像在图。第九章为了折衷这两种方法,我们结合了基于地图的预测和Places365 CNN预测,并降低了失配率。在图7、关于组合预测表1在原始数据集上训练的预训练ResNet-50模型的分类结果精确回忆f1分数准确度城市农村公路0.86 0.89 0.87基于地图的预测,右边是基于图像的预测。正如我们所看到的,基于地图的方法通常与组合版本具有良好的匹配,对于城市和公路场景超过80%,对于农村场景超过70%。然而,相比之下,Places365方法展示了与城市类的组合版本的高度匹配,但将一些农村场景分类为城市。这是因为Places365数据集中的一些类可能属于城市场景。像“小巷”、“街道”、“车道”、“森林道路”、“散步”这样的类4.2. 实验设置实验使用PyTorch v1.8.1实现。在3276个图像中,我们留下了1080个图像,每个类都有相同数量的图像。然后将数据按70/10/20的比例分为训练集、验证集和测试集,其中756幅图像属于训练集,108幅图像属于验证集,216幅图像属于测试集。使用测试集来估计最终结果。所有图像都被调整大小并裁剪为224× 224像素。用于训练的超参数设置如下。学习率初始化为0.001,动量为9%,每7个epoch衰减学习率为0.1。批次的大小为4。此外,最后用新的Softmax层替换预训练模型的层,该层与3个类的数量相关4.3. 在原始数据集为了改进训练过程,我们采用了随机变换函数。首先,用一定的概率算法裁剪图像的随机部分,并将其大小调整为224到224像素。其次,以0.5的概率,它水平翻转我们的图像。最后,我们对图像进行归一化表1中列出了每个类别的预训练ResNet-50模型的分类结果,并在自定义KITTI数据集上进行了最终训练。我们最好的准确率是在10次训练后达到83%。f1分数是一个系统的单一测量,显示了公路等级的最佳结果。图图10是用于列车集预测的混淆矩阵,其中类似地,高速公路具有比农村类稍好并且比城市类好得多的匹配地面实况标签4.4. 扩展数据集论文[29]表明,通过添加新图像增强的数据提供了更好的准确性结果,并且与使用相同数量的图像进行训练的传统数据增强方式相比,训练过程更快。为了改善我们模型的结果,我们决定将我们的数据集扩展到1779张图像,其中1419张图像属于训练,以及分别用于验证集和测试集的相同的177个图像。添加水平翻转的图像作为新图像,并结合随机裁剪和调整大小,可以为模型提供更多功能并泛化模型。分类结果如表2所示,我们的模型达到了86%,这表明通过扩展数据集而提出的增强将模型提高了3%。此外,三个级别中的每一个的f1分数都得到了提高,公路级别的提高略好。 图11.用于列车集预测的混淆矩阵。两个预测类显示非常高R. Prykhodchenko和P. 什克鲁赫阵列15(2022)1001955图五. ResNet-50架构。4.5. 对数据集我们的网络是广义的,足以对道路场景图像进行分类,这些图像不是来自KITTI数据集,在相对较好的水平上,如图所示。12个。这些图像是从YouTube上的公路旅行视频中提取的。图13提出了场景的例子,我们的模型没有正确分类。在左边的图片场景中,我们的模型从未见过雪,并将图片分类为城市,这是训练集中最多样化的类别。在中间的图片中,高速公路最有可能被预测为城市道路,因为道路上有许多道路标记,这些标记是城市场景中最典型的。在右图中,我们可以观察到农村场景被预测为城市,事实上很难说它是城市或农村场景,但是,模型分类 城市化的可能性更低,约为70%。见图6。基于地图和基于图像的Places365方法之间的场景分类混淆矩阵。(For对本图图例中所指颜色的解释,读者可参考本文的网络版表2在扩展数据集上训练的预训练ResNet-50模型的分类结果精确回忆f1分数准确度城市0.89 0.80 0.84农村公路0.96 0.90 0.93表3在增强数据集上训练的预训练模型的分类结果型号参数型号尺寸MB列车运行时间精度ResNet-34 21 M 178 0.72 0.84ResNet-50 23M 376 1.0 0.86ResNet-101 42 M 592 1.71 0.88MobileNetV3 2M 45 0.66 0.80VGG16 138 M 747 2.44 0.87匹配分数,农村和高速公路都有89%与地面真实标签匹配。一个城市阶级有一个小的改进,但是,我们可以看到,它仍然是混淆与农村的场景。我们将ResNet-50的性能与不同的最先进的深度学习架构进行了比较,包括具有不同深度层数量的ResNet变体,以及ImageNet数据集上预定的其他众所周知的架构,MobileNet版本3 [30]和具有16层的VGG架构。模型参数和结果的50个时代的培训目前在3。从表3中可以看出,小型模型ResNet-34的性能略低于ResNet-50,但训练时间减少了25%。更深入的ResNet-101模型略优于ResNet-50,但需要两倍的时间来训练。为了进行公平的比较,我们补充说两种不同架构的模型。一个是小型MobileNet V3,第二个是VGG16模型。这些架构位于ImageNet基准性能图之上。正如我们所看到的,ResNet-50看起来是高性能和快速训练之间的合理妥协。5. 结论在这项工作中,我们提出了一种以半自动方式标记道路场景的方法,该方法可用于为汽车数据集准备元数据。车辆GPS定位与街道级图像特征一起用于场景分类,由VGG 16-Places365卷积神经网络提取,以生成标签来训练具有50个卷积层的残差网络,从而通过单个图像对城市/农村/公路状况进行分类。该网络已经在ImageNet数据集上进行了预训练,然后使用迁移学习技术在自定义KITTI数据集上进行训练。我们表明,空间数据可以与在Places365数据集上预训练的预训练深度网络一起使用,作为标记道路场景分类任务的半自动方法,而不是手动执行标记。作为图像分类的基线,我们使用具有50层跳过连接的残差神经网络,在三个类别的场景分类的增强和扩展数据集上展示了86%的准确率。各种背景因素应考虑到一般化和有信心的预测道路场景分类,这张照片拍摄。 诸如天气、光线、地理或人为过程等因素都会对基于视觉的感知系统产生很大的影响。考虑到所有这些因素,计划用其他最先进的数据集进行实验,其中图像条件可能不同且更多样化。另一个有前途的方向是使用无监督的方法进行场景分类,该方法基于使用卷积层嵌入特征的聚类技术。我们相信,场景条件标记可以用于在线和离线应用,例如自主数据集的语义映射和驾驶辅助。竞合利益与本文相关的作者没有披露任何潜在的或相关的冲突,可能会被认 为与 这 项 工 作 即 将 发 生 冲 突 。 有 关 完 整 披 露 声 明 , 请 参 阅https://doi.org/10.1016/j.array.2022.100195。R. Prykhodchenko和P. 什克鲁赫阵列15(2022)1001956图第七章 用于场景分类的混淆矩阵:(a)组合预测和基于地图的方法(b)组合预测和基于图像的方法。见图8。正确分类图像的示例:(a)城市预测为城市(b)农村预测为农村。见图9。错误分类图像的示例:(a)城市预测为高速公路(b)高速公路预测为农村。图10. 在原 始 数 据 集 上 训 练 的 预训练ResNet-50模型的 混 淆 矩阵图十一岁在扩展数据集上训练的预训练ResNet-50模型的混淆矩阵图12个。YouTube 视 频 中 正确分类的 场景的 一 些 例 子 。图13岁 一些Yo uT u b e 视 频 中 错误分类的 场景示 例 。R. Prykhodchenko和P. 什克鲁赫阵列15(2022)1001957引用[1][10] 张 文 辉 , 张 文 辉 , 张 文 辉 . pascalvisualobject classes ( pascal visualobject classes) Int J Comput Vis 2010;88(2):303-38.[2] Russakovsky O , DengJ , Su H , KrauseJ , Satheesh S , Ma S , et al.Imagenet大规模视觉识别挑战。IntJ Comput Vis 2015;115(3):211-52.[3]邓军,董伟,苏彻R,李林杰,李凯,李飞飞。Imagenet:一个大规模的分层图像数据库。2009年IEEE计算机视觉与模式识别会议。2009,p.248比55[4]周B,拉佩德里扎A,肖J,托拉尔巴A,奥利瓦A.使用地点数据库学习场景识别的深度特征。2014年。[5]Zhou B,Lapedriza A,Khosla A,Oliva A,Torralba A. 地点:一个用于场景识别的1000万图像数据库。IEEE Trans Pattern Anal Mach Intell2017;40(6):1452-64.[6]Rangel JC , Cazorla M, García-Varea I,Martínez-GómezJ, FromontE,Sebban M. 基于语义标注的场景分类。 Adv Robot2016;30(11-12):758-69.[7]科斯塔韦利斯一世移动机器人任务的语义映射:调查。机器人自动化系统2015;66:86-103.[8]王S,李英,刘伟.融合天气数据集和图像特征的多类天气分类。上一篇:CCF大数据会议Springer; 2018,p.149比59[9]Sikirić I,Brkić K,Bevandić P,Krešo I,KrapacJ,Šegvić S.基于表示预算的交通场景分类。IEEE Trans Intell Transp Syst2019;21(1):336-45.[10] 张文辉,张文辉,张文辉. Vision meets robotics:The kitti dataset. IntJ RobotRes 2013;32(11):1231-7.[11] 何克,张X,任S,孙杰,深度残差学习图像识别。在:IEEE计算机视觉和模式识别会议论文集。2016,p. 770-8[12] Van De Sande K,Gevers T,Snoek C.评估物体和场景识别的颜色描述符。IEEETrans Pattern Anal Mach Intell 2009;32(9):1582[13] 张J,Marszaek M,Lazebnik S,Schmid C.用于纹理和对象类别分类的局部特征和内核:全面研究。IntJComput Vis 2007;73(2):213-38.[14] 放大图片作者:KrapacJ,VerbeekJ, Jurie F.基于fisher向量的空间布局模型在图像分类中的应用。2011年国际计算机视觉会议。I E E E ; 2011,p. 1487-94年。[15] SánchezJ,Perronnin F,Mensink T,Verbeek J.使用Fisher向量进行图像分类:理论与实践。 Int J Comput Vis 2013;105(3):222-45.[16] Krizhevsky A,Sutskever I,Hinton GE.使用深度卷积神经网络进行图像网分类。Adv Neural Inf Process Syst 2012;25:1097[17] Simonyan K,Zisserman A.用于大规模图像识别的深度卷积网络。2014年,arXiv预印本arXiv:1409.1556。[18] 邓鹏,王宏,邝世. G-MS 2F:基于GoogleNet的多阶段特征融合深度CNN来进行场景识别。神经计算2017;225:188[19] 放大图片Bosch A,Munoz X,Oliver A,Marti R.对象和场景分类:一个有监督的方法能给我们带来什么第18届国际模式识别会议,第1卷。IEEE; 2006,p.773-7[20] Ess A,Müller T,Grabner H,Van Gool L.基于分段的城市交通场景理解。见:BMVC,第1卷。Citeseer; 2009,p. 二、[21] 张宏,张伟. 跨天气交通场景理解的基准。2016年IEEE第19届智能交通系统国际会议IEEE; 2016,p. 2150-6[22] [1]张宏,李成国,梅X,普罗霍罗夫,凌宏.跨域交通场景理解:基于密集对应的迁移学习方法。IEEETrans Intell Transp Syst2017;19(3):745-57.[23] Narayanan A,Dwivedi I,Dariush B. 动态 交通 场景 分类 时空相干性。2019年国际机器人与自动化会议。IEEE; 2019,p. 5629-35[24] 夏军,丁勇,谭磊。基于轻量级卷积神经网络的城市遥感场景识别。IEEEAccess 2021;9:26377[25] Zhao W,Bo Y,ChenJ,Tiede D,Blaschke T,Emery WJ.探索城市场景识别的语义元素:高分辨率图像和OpenStreetMap(OSM)的深度集成。 ISPRS JPhotogramm Remote Sens 2019;151:237-50.[26] Haklay M, Weber P. Openstreetmap: 用户生 成的 街道地 图。 IEEE普适 计算2008;7(4):12-8.[27] Alirezaie M,Längkvist M,Kiselev A,Loutfi A.开放地理空间数据作为卫星图像自动标注的地面实况来源。第九届地理信息科学国际会议。CEUR WorkshopProceedings;2016,p. 五比八[28] 刘晓庆,刘晓庆.基于OpenStreetMap和sentinel-2图像,使用置信函数绘制公共城市绿地。ISPRS IntJ Geo-Inf 2021;10(4):251.[29] 刘S,田刚,徐勇. 一种新的场景分类模型,结合了基于ResNet的迁移学习和带有过滤器的数据增强。神经计算2019;338:191-206.[30] Howard A,Sandler M,Chu G, Chen L-C,Chen B,Tan M,et al.关于mobilenetv3在:IEEE/CVF计算机视觉国际会议论文集。2019年,p. 1314-24.
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 平尾装配工作平台运输支撑系统设计与应用
- MAX-MIN Ant System:用MATLAB解决旅行商问题
- Flutter状态管理新秀:sealed_flutter_bloc包整合seal_unions
- Pong²开源游戏:双人对战图形化的经典竞技体验
- jQuery spriteAnimator插件:创建精灵动画的利器
- 广播媒体对象传输方法与设备的技术分析
- MATLAB HDF5数据提取工具:深层结构化数据处理
- 适用于arm64的Valgrind交叉编译包发布
- 基于canvas和Java后端的小程序“飞翔的小鸟”完整示例
- 全面升级STM32F7 Discovery LCD BSP驱动程序
- React Router v4 入门教程与示例代码解析
- 下载OpenCV各版本安装包,全面覆盖2.4至4.5
- 手写笔画分割技术的新突破:智能分割方法与装置
- 基于Koplowitz & Bruckstein算法的MATLAB周长估计方法
- Modbus4j-3.0.3版本免费下载指南
- PoqetPresenter:Sharp Zaurus上的开源OpenOffice演示查看器
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功