深度学习驱动的自动驾驶:内省解释与文本解析

0 下载量 90 浏览量 更新于2024-06-20 收藏 1.89MB PDF 举报
"自动驾驶汽车的可解释文字模型" 在当前的自动驾驶汽车技术中,深度神经感知和控制网络扮演着至关重要的角色。为了提高用户对自动驾驶系统的信任和接受度,研究者们正在寻求一种方法,即提供易于理解的文本解释,以帮助用户了解系统为何做出特定决策。这篇论文提出了一种新的内省解释方法,该方法由两部分组成。 首先,他们应用视觉(空间)注意力模型训练一个端到端的卷积网络,这个网络能从图像直接转化为车辆控制命令,如加速或转向。注意力模型能够识别出可能影响网络输出的图像区域,从而突出显示控制器关注的重要部分。 其次,利用基于注意力的视频到文本模型,研究人员生成了模型行为的文本解释。这两个模型的注意力地图被对齐,确保解释与控制器关注的场景关键部分相对应。他们探讨了两种不同的注意力对齐策略:强对齐和弱对齐,以优化解释的准确性和关联性。 此外,他们还研究了一个模型版本,该模型能生成合理化的解释,并与内省解释进行对比,以进一步增强模型的可解释性。所有这些工作都在一个新的驾驶数据集——伯克利DeepDrive eXplanation (BDD-X) 数据集上进行评估。BDD-X数据集包含真实人类解释,为模型的评估提供了基准。 代码和更多资源可以在https://github.com/JinkyuKimUCB/ 找到。该研究强调了可解释性的深度驾驶模型的重要性,因为它们不仅提升了模型的透明度,还有助于增强用户对自动驾驶技术的信任,这对于自动驾驶汽车的广泛接受至关重要。通过提供清晰的决策理由,这些模型有望在未来促进自动驾驶汽车的安全性和可靠性。