ID-YOLO:驾驶员关注区域的实时显著目标检测

需积分: 0 1 下载量 146 浏览量 更新于2024-08-04 收藏 10.85MB PDF 举报
"ID-YOLO:实时显著目标检测基于驾驶员的注视区域,为自动驾驶车辆或高级驾驶辅助系统(ADAS)提供重要的目标检测任务。同时引入了视觉选择性注意力的概念,这是驾驶员视觉系统中的关键神经机制,能快速过滤驾驶场景中的无关信息。现有的模型通常从计算机视觉角度检测所有驾驶场景中的物体,但在快速变化的驾驶环境中,检测驾驶员关注或与安全相关的显著物体对ADAS更有用。为此,构建了一个增强的眼动追踪对象检测(ETOD)数据集,该数据集基于多驾驶员眼动收集的驾驶视频。" 在自动驾驶和高级驾驶辅助系统(ADAS)领域,目标检测是一项至关重要的技术。它使车辆能够识别并理解周围环境中的物体,如其他车辆、行人、交通标志等,这对于安全驾驶至关重要。传统的计算机视觉方法往往试图检测图像中的所有物体,但这种方法在复杂的驾驶环境中可能效率不高,尤其是在快速变化的场景中。 本文提出的ID-YOLO(驾驶员固定区域的实时突出目标检测)网络,旨在解决这一问题。ID-YOLO利用驾驶员的视觉注意力信息,即驾驶员的注视区域,来定位和识别关键和显著的目标。这种策略更加符合人类驾驶员的观察习惯,即驾驶员通常只关注与其驾驶行为密切相关的部分场景。 视觉选择性注意力是人类大脑处理视觉信息的一种机制,允许我们在复杂环境中快速聚焦关键信息。在驾驶中,这种机制使得驾驶员能够忽略不重要的背景细节,专注于道路前方的危险或重要元素。ID-YOLO网络结合了这种生物学原理,通过眼动追踪技术获取驾驶员的注视点,从而确定驾驶场景中的显著区域,并在此区域内进行目标检测。 为了训练和验证ID-YOLO,作者创建了一个名为ETOD(Eye Tracking Object Detection)的数据集。这个数据集包含多个驾驶员在驾驶过程中的眼动数据以及对应的视频帧,这些数据由第三方设备如DENGE等人所收集。这样的数据集不仅提供了丰富的驾驶场景,还包含了驾驶员的视线信息,使得模型能够学习到与驾驶安全密切相关的显著目标检测模式。 通过使用ETOD数据集,ID-YOLO可以学习到如何根据驾驶员的视线调整其目标检测策略,从而提高在实际驾驶环境中的性能。实时性能是另一个关键因素,因为ADAS需要在短时间内做出决策,因此ID-YOLO的设计必须兼顾精度和速度。 ID-YOLO是一个创新的深度学习模型,它利用驾驶员的视觉注意力信息来提升驾驶场景中的目标检测效率,这在自动驾驶和ADAS技术中具有巨大的应用潜力。通过结合眼动追踪数据,该模型有望提供更精确、更及时的驾驶辅助,从而提高道路安全。