没有合适的资源?快使用搜索试试~ 我知道了~
7619DRIVE:深度强化事故预测与可视化解释包文涛、齐宇、孔宇罗彻斯特理工学院计算与信息科学学院{wb6219,qi.yu,yu.kong} @ rit.edu摘要交通事故预测的目的是准确,及时地预测未来事故的发生,从dashcam视频,这是一个安全保证的自动驾驶系统至关重要。为了鼓励早期和准确的决策,现有的方法通常集中在捕捉未来事故发生之前的空间和时间背景的线索。然而,他们的决策缺乏视觉解释,忽视了与环境的动态相互作用。在本文中,我们提出了深度加强事故预测与视觉解释,命名为驱动。该方法在dashcam观察环境中模拟自下而上和自上而下的视觉注意机制,使得所提出的随机多任务智能体的决策可以通过注意区域来直观地解释。此外,提出的密集预期奖励和稀疏固定奖励是有效的训练DRIVE模型与我们的改进的强化学习算法。实验结果表明,DRIVE模型在多个真实世界的交通事故数据集上实现了最先进的 性 能 。 代 码 和 预 训 练 模 型 可 在 https :www.rit.edu/ actionlab/drive获得。1. 介绍随着对自动驾驶的需求不断增长,预防未来可能发生的事故正在成为保证安全驾驶策略的核心考虑因素[3,40,2]。给定仪表盘视频,事故预测模型旨在告诉驾驶系统在不久的将来是否以及何时会发生交通尽管在视觉感知方面取得了显着进步[10,14,20],但长期以来,驾驶控制的决策一直与自动驾驶场景的视觉感知研究隔离研究[26,36]。我们的目标是通过调查一个关键的研究问题来弥合这一差距:当预测未来可能发生的事故时,驾驶员会看哪里?这将导致一个视觉上可解释的模型,该模型将低水平的视觉注意力和高水平的事故预期相关联。图1:DRIVE模型的马尔可夫决策过程。神经网络代理(左)学习利用视觉注意状态(下)来预测包括事故分数和下一个固定(上)的动作,这反过来探索驾驶环境(右)以最大化总奖励(中)。交通事故预测还远远没有解决,主要是由于以下几个方面的挑战。首先,未来事故的视觉线索对于训练判别模型是至关重要的,但在实践中,它们难以在事故发生之前从有限且有噪声的视频数据中捕获以前的工作利用对象检测,并通过[3]中的软注意或[2]中的图关系学习来学习事故视觉线索。在本文中,我们提出了显式学习的视觉注意行为,以解决在哪里看,这样的事故危险区域可以定位。其次,这本质上是早期决策和正确决策之间的权衡,因为越早预测事故,由于事故相关线索较少,现有的工作[3,2]简单地通过训练具有指数加权分类损失的监督式深度学习模型来解决权衡问题。在本文中,我们解决这个权衡制定的任务作为一个马尔可夫决策过程(MDP),其中勘探和开发可以动态平衡的驾驶环境。在事故预测的背景下,MDP模型旨在利用事故预测的即时视觉线索,并探索事故评分和注意分配的更多可能性。我们提出的DRIVE模型用MDP来说明(1,2,������行动(1,2,������奖励(提前正确注意)状态环境剂下一次固定的事故7620图中的透视图。1.一、DRIVE模型基于深度强化学习(DRL)算法同时学习事故预测和固定预测的策略在每个时间步,智能体采取行动来预测未来事故的发生概率,以及指示驾驶员在下一时间步将看哪里的固定点我们的环境模型通过考虑自下而上和自上而下的视觉注意力来动态地提供观察状态,所述视觉注意力由来自先前时间步的动作重新调制。我们开发了一种新的密集预期奖励,以鼓励早期和准确的预测,以及稀疏固定奖励,使视觉解释。此外,为了在真实世界数据集上有效地训练DRIVE模型,基于DRL算法SAC [18]进行了实质性改进我们的方法被证明在DADA-2000数据集上是有效的[11],并且可以很容易地扩展到DAD数据集[3],而无需固定注释。所提出的方法不同于在监督学习(SL)框架内制定的现有作品[3,40,6,2所提出的基于DRL的解决方案从根本上优于SL,因为DRL可以利用即时观察来实现长期目标,即,为预测未来的事故作出早期决策此外,根据[27],我们的方法与[3,6]相比是可内省解释的,[3,6我们的实验结果也验证了学习的视觉注意作为因果关系的结果从代理。主要贡献有三个方面:• 提出了一种基于深度强化学习(DRL)的DRIVE交通事故预测模型.• DRIVE模型通过在统一的DRL框架内显式地模拟人类视觉注意力来进行视觉解释• 提出的稠密预期奖励和稀疏固定奖励在我们改进的DRL训练算法中训练模型是有效的。2. 相关工作交通事故预测。与最近的事故检测[46,24],事故识别[48]和早期行动/活动预测[4,28]不同,事故预测问题更具挑战性,因为模型需要在事故发生之前做出早期决策。事故预测任务最早由Chan等人提出。[3]他们提出了一个DSA-RNN方法解决事故预测问题。该方法基于每个时间步长上的对象检测和动态软注意,并使用LSTM来顺序地预测事故分数。在[40]中,引入了用于早期事故预测的自适应损失。基于这些工作,Fatimaet al. [12]提出了一种基于LSTM的连续事故评分预测的特征聚合方法受到双流设计的成功的启发,Corcoran等人[6]采用RGB视频和光流进行事故预测。Neumann等人[34]将时间事故分数表示为高斯分布的混合物,并建议使用3D-CNN来预测分布的充分统计数据。最近,Baoetal. [2]提出使用GCN和贝叶斯深度学习进行交通事故预测。除了这些作品中使用的dashcam视频外,Shah等人。[38]利用监控录像预测交通事故。Zeng等人[49]最近提出通过在RNN框架内定位风险区域来预测故障事故。通过研究这些工作,我们发现他们通常采用递归神经网络或3D卷积网络作为模型架构。然而,他们的监督学习(SL)设计需要大量的注释训练数据。在可解释性方面,[3,6]只给出了事后边界框解释,这本质上是合理化而不是内省解释。基于RL的视觉注意力。视觉注意已经被研究了几十年,并且它已经被广泛地建模为马尔可夫过程[30,29]。早期的工作[35]在自上而下的注意力建模中使用了演员-评论家RL算法。Mnih等人[33]开发了一种基于RL的用于图像分类的递归视觉注意模型Jiang等[25]使用最小二乘策略迭代进行视觉注视预测。最近的工作,如[44]和[23],实现了深度RL算法,用于基于360◦视频的人类头部运动预测。除了RL方法之外,逆向强化学习(IRL)算法还利用专家演示的优势来训练任务目标的策略网络,最近的工作[45]表明IRL可以用来预测目标导向的人类注意力。Zhang等人[50]提出了一个模仿学习框架,通过使用人类注视来学习Atari游戏的策略网络在本文中,不同于这些工作,我们整合的视觉注意和交通事故的预期到一个统一的RL框架中,在现实世界的环境。可解释的自动驾驶。对于自动驾驶应用,重要的是提供可解释的决策,以便自动驾驶系统能够被人类信任与我们的工作类似,最近Xia等人。[42]提出了使用中央凹视觉机制来对用于驾驶速度预测的人类视觉注意建模。Kim等人[26]使用视觉注意力模型和因果过滤来视觉地解释预测的转向控制,即,转向角和7621--一∈|是一个是一个中央视觉!!显著性模型自顶向下的注意= min( ,什特雷茨观察状态行动Acci d n tP rd. !奖励&(啊!���=(1 −������������⊙池化普固定预测值!(啊F视频底向上的注意显著性模型普雷特随机多任务Agent重放缓冲器一不交通观测环境特征量用于培训政策网络图2:驱动模型。在每个时间步长t处,交通观察环境模型(左部分)从自下而上和自上而下路径获取视觉注意力,通过动态注意力融合(等式框)和特征池化生成观察状态st。随机多任务代理(右部分)将st作为输入来预测动作at,其包括事故得分a和下一个注视点p。 所有的状态、动作和记录都被收集在重放缓冲器D中以训练代理的两个策略网络工作。速度在此基础上,[27]进一步提出将视觉注意和文本描述结合起来进行自驾驶行为解释。虽然已有研究交通场景中驾驶员视觉注意力的工作[10,43,1],但很少有人同时将上游视觉注意力和下游事故预期制定为统一的可学习模型。受这些工作的启发,本文提出通过明确地对自我车辆驾驶员的视觉注意行为建模,可以对交通事故3. 方法框架概述。图2示出了DRIVE模型的框架。 给定仪表盘视频作为输入,随机多任务智能体(右部分)基于来自环境的观察状态(左部分)在每个时间步长处循环地输出事故得分a和n个固定点p。特别地,环境是通过考虑破折号凸轮视频帧的自下而上和自上而下的注意力来构建的,而代理由共享状态自动编码器和两个并行预测分支组成。 两个行动a和p分别由rA和rF指导,以鼓励早期、正确和专注。在推理过程中,DRIVE模型通过对危险区域的视觉注意力分配来同时观察驾驶环境,并通过训练的代理预测未来事故的发生概率。问题设置。 在本文中,我们遵循现有文献[3,2]中的任务设置。交通事故预期模型旨在预测帧级事故分数at,其指示未来事故发生的概率。为了评估性能,使用事故时间(TTA)tta=max(0,tat)来评估提前性,其中ta是事故的实际开始时间,t是预测分数高于最大值的第一时间点。阈值Δ0,即,αt> α0。较大的tta表示模型能够预测交通事故的较早时间 此外,还采用了二分分类和显著性评价指标来评价分类的正确性和注意力.受人类驾驶员的自然决策过程的启发,即,观察和预测,我们制定交通事故预测和固定预测任务统一马尔可夫决策过程(MDP)。1、让一个数组(,P,R,L,γ)表示折扣MDP,其中有限时域(视频长度)L,其中和是空格R定义每个状态-动作对的奖励,并且γ(0,1]是折扣因子。在本文中,动作空间中的动作at由事故分数at和下一个注视点pt=(xt+1,yt+1)T组成,在图像域中定义,使得at=(at,xt+1,yt+1)T.状态st由两种类型的动作共享。国家代表和行动政策将在第二次引入。分别为3.1和3.2。注意,P定义状态转换模型,即,P(st+1st,at).在我们的方法中,状态转变P通过注视预测模块(等式10)来实现(3))和环境观察模块(Eq.(1)和2)。节中3.3和3.4中,将分别讨论奖励设计和训练算法3.1. 交通观测环境为了预测交通事故,观察状态需要是有区别的,以从杂乱的交通场景中区分事故相关的线索。在本文中,我们受到人类视觉系统的感知机制的启发。人们普遍认为,视觉感知依赖于两种不同类型的注意过程,即,自下而上的注意力和自上而下的注意力[5]自下而上的注意是由感官输入的显著视觉刺激决定的,而自上而下的注意是由浏览任务驱动的,以实现长期的认知目标。这两种机制已被证明7622∈TD--转TDSTD∈TDTDTD步TD步TD步不我=我步∈⊙是预测的事故得分,并且m(0,1)用作超参数。通过引入m来裁剪t,而不是直接使用t,DAF获得了利用学习到的自上而下的注意力的灵活性,因为m控制最大注意力。(a) 全帧(b)中心凹帧S t的mum百分比 (ρ t≤m)。 注意(c)自下而上的注意(d)自上而下的注意图3:Foveation和Attention的示例。 利用显著性模型,全帧I(图3a)和其中央凹帧F(I,p)(图3b)可以在图像中显示。图3b)用于生成自下而上的注意力G(I)(图3c)和自上而下的注意力G(F(I,p))(图3c)。3d)中。在交通场景中驾驶员的视觉注意力建模[8,9]。对于交通事故预测,观察整个场景是低效的,而注意机制可以用于捕获有区别的事故相关线索,以用于更好的交通观察状态建模。交通注意力建模。 鉴于对对于任何a t ta] exp .||pt−pt||2、(6)智能体需要来自驱动环境的标量奖励r来指导其学习。在本文中,我们提出了一个密集的抗干扰奖励rA和稀疏的固定奖励rF,以鼓励早期,准确,可解释的决策,使得在每个时间步的总奖励是r=rA+rF。密集预期奖励。为事故评分at,我们建议通过考虑每个时间步的正确性和早期性来给定得分阈值a〇,我们提出时间加权的XNOR1(也称为等价门)度量。其中指示函数I[t >ta]在未来事故发生之前将预测的回报归零。pt和pt分别是在视频帧空间中定义的预测注视点和地面实况注视点的2-D坐标通过视频帧的高度和宽度对注视点进行归一化以用于稳定训练。 使用基于欧氏距离的径向核的动机是pt和p t之间的距离越近,代理将获得越大的回报。超参数η可以凭经验设置以确保rt和rt之间的相同幅度。作为事故预期奖励rA:t=wt·XNORI[at> a0],y,⑷其中,是加权因子,并且I(·)是指示函数。 二元标号y ∈ {0,1}且y = 1表示1XNOR:https://en.wikipedia.org/wiki/XNOR_gate3.4. 模型训练为了训练DRIVE模型,我们遵循软演员-评论家SAC模型[18],但将其扩展为适应事故预测任务。SAC通过策略熵最大化提高了传统角色-评论家强化学习的探索能力具体而言,SAC旨在优化目标:ΣR7625不Hθ角−H|--·LD·--·|ΣΣLΣΣmaxΣE(s,a)ρ[r(st,at)+αH(π(·|(7)SAC算法简化为一个纯监督学习(SL),而不需要修改架构。更新温度。最近的作品[19,41]表明ϕt=1t tπ基于熵的RL训练相对于温度α是脆弱的。在本文中,我们遵循自动熵其中,α是控制通过最小化来更新α的贡献调谐[19]的温度从政策熵。为了实现该目标,以交织的方式优化作为策略网络的行动者和逼近状态-行动值函数Q(s,a)在我们的模型中,由于随机多任务代理给出单独的熵估计事故预测和固定预测,我们建议将总熵表示为从每个任务的熵的总和使用loga-Rithm规则,− H(π(·|s(t))可以表示为− H(π(a|s))=log[πA(a|s)·πF(p|s)]。(8)这使得SAC能够扩展到多任务代理。更新评论家。对于批评网络Qθ,通过最小化软Bellman残差来更新它:J(θ)=EΣ(Q(s,a)−y(r,s′,a))2Σ,(9)其中,目标y(r,s’,a)与reward r贪婪地相关,贴现的软Q-ta r得到Qθ’,并且entropy。这里,θ¯是软Q目标网络其是评论家网络的延迟软拷贝。更多详情请参阅[18]及我们的补充资料。更新演员。更新策略网络(行动者)以最大化Eq。(7)采用策略梯度法,等价于极小化J(α)=E[−αlogπ(a|s)−αH0],(12)其中负目标熵0被经验性地设置为动作A的维度。在本文中,我们发现α可以被更新为零,使得熵(对数项)难以被优化。为了解决这个问题,我们建议在更新α之前对其进行裁剪:α←max(α−λααJ(α),α0)(13)其中α0是α的小值。这使得能够在训练期间充分探索代理。更新RAE。正则化自动编码器(RAE)基本上将L2正则化器施加在潜在表示和模型参数上以用于重建学习:JRAE(β)=Lrec(s;β)+w0||β值||2+ ws||z||第二条,(十四)其中β是解码器参数,并且z是RAE编码器的编码状态表示。 类似于现有工作[47],编码器参数由临界损失J(θ)和RAE损失J(β)更新,而解码器参数仅由J(β)更新。为了能够在大规模真实世界视频上进行训练,我们重建观察状态s,而不是像[47]中所做的那样重建原始像素。我们的DRL贡献总结。在本文中,现有的SAC算法是适应现实世界的ap。Jo()=Eαlogπ(as)minQθjj=1, 2 (s,a)Σ+w0||ϕ||二、(十)这是一个基于模拟的DRL应用程序和具有挑战性的现实世界任务之间的桥梁此外,对于交通事故的预见,两个新颖的奖励在考虑早期、正确性和其中aπθ(s)。项(logarithmpart)由等式(1)计算。(八)、对于期望的第二项,在实践中使用了限幅双Q学习[13]。在本文中,我们添加了一个L2正则化项的政策网络的工作参数,以减轻过拟合问题。为了在我们的模型中适应具有多任务策略的SAC,我们分别更新每个子策略网络,其中相应的损失LA和LF作为正则化器:J(A)=Jo()+w1E(at,ta,y)J(F)=Jo()+w2EI[t>ta]d(pt,pt),其中=A、距离d()定义欧氏距离。事故预期损失(a(t,ta,y)遵循[2,3]中的定义。指示器功能I[]确保在训练期间只能访问事故帧中的注视点注意,如果Jo()被移除,则(十一)Σ7626试探性的开发,以指导基于SAC的模型训练。此外,为了使SAC能够进行多任务学习,根据经验发现所提出的动作熵分解以及诸如温度限幅和状态重构的其他训练技术是有用的。4. 实验数据集。我们的方法在两个交通事故数据集上进行评估,即,2000年[11]和[3]。对于DADA-2000数据集,我们只使用事故的开始时间和事故帧的固定作为地面实况。DAD是事故数据集,其中事故的开始时间固定在正剪辑的第90两个数据集的视频剪辑都是5秒长。评价方案。在本文中,我们使用视频水平的ROC曲线下面积(AUC)来评估操作的正确性和平均事故时间(TTA).7627×个--←表1:与现有技术方法的比较。最好的结果用粗体字标记。AUC和TTA分别评价事故预测的正确性和早期性。方法DADA-2000 [1]DAD [3]AUC(%)TTA(s) AUC(%)TTA(s)DSA-RNN [3]47.19 3.09571.57 1.169AdaLEA [40]3.890美元58.06 2.228美国[2]60.19 3.84965.96 0.915驱动器(我们的)72.273.65793.82 2.781评分阈值为0.5,用于评价早熟性。对于分类度量AUC , 我 们 仅 评 估 事 故 帧 的 预 测 , 采 用 相 似 度(SIM)、线性相关系数(CC)和Kullback-Leibler距离(KLD)评价视觉注意力较小的KL值指示较好的性能。实施详情。提出的DRIVE模型是用PyTorch框架实现的。我们采用基于VGG-16的MLNet [7]作为显着性模块。显着性模块在DADA-2000训练集的注视数据上进行预训练,并且参数在DRIVE训练中保持对于DAD数据集,由于注视未被注释,因此我们移除注视预测策略和自上而下的注意。对于所有的数据集,视频帧的大小和零填充到480 640具有相等的缩放比。方程中ρ的m和等式(1)中的得分阈值α0(4)默认设置为0.5我们对所有梯度下降过程使用Adam优化器其他参数设置见补充说明。4.1. 主要结果基线。 我们将所提出的DRIVE与DSA-RNN [3]和UString [2]进行了比较,因为它们的源代码是可用的。我们还在DSA-RNN方法(AdaLEA)之上实现了事故预期损失函数AdaLEA [40]。注意,所有方法都使用VGG-16 [39]作为骨架。DADA-2000和DAD数据集的AUC和TTA结果见表1。事故预测结果。它表明,我们的DRIVE方法显着优于 其 他 基 线 的 DADA-2000 和 DAD 数 据 集 与 AUCmetric。 这表明我们的方法是有利的以准确预测未来是否会发生事故。注意,AdaLEA在DADA-2000数据集上实现了最佳的TTA0.23比我们的DRIVE方法高出几秒。AdaLEA在TTA算法上的优势在于,在训练过程中,AdaLEA利用验证集计算TTA,驱动模型进行早期预测。相比之下,我们不使用验证集指南,但仍然在DADA-2000上获得了相当的TTA结果,在DAD数据集上获得了更好的TTA结果表2:DADA-2000上的视觉注意力和事故预测的评估。最佳结果以粗体显示。参数(Params)表示SAF的ρ值和DAF的mParams方法AUCSIMCCKLD(↓)0.5SAF0.6450.1880.3222.679DAF0.6590.1920.3312.6540.8SAF0.6910.1440.1903.087DAF0.7260.1580.2262.9861.0SAF0.6320.0800.07912.948DAF0.6790.1120.1437.8364.2. 目视解释结果相关性结果。为了研究视觉注意力机制如何解释事故预期决策,我们首先联合比较了融合显着性(Eq.(1))以及针对所提出的动态注意力融合(DAF)策略和备选策略(即,静态注意力融合,其融合参数不进行更新而手动设置。结果报告于表2中。我们可以看到,DAF在显著性预测和事故预测(AUC)方面都一致优于SAF,这表明了DAF的优越性以及视觉注意与事故预期之间的强相关性。因果关系结果。 由所提出的DRIVE模型学习的视觉注意应该表现出意外预期表现的因果关系。因此,受因果显着性分析[26]和背景视觉解释[17]的启发,我们对等式中的显着性St采用了两种不同的干预测试。(1),即,消除注意力(St1)在测试阶段反转注意力(1St结果报告在图。5a. 它表明,无论是召回率或帧级AUC(f-AUC),DRIVE模型的性能对于两个测试用例都将降低,这证明了学习的DAF视觉注意力和事故预期之间的因果关系。注意力可视化。在图4中,我们使用来自DADA-2000数据集的测试数据可视化了三个代表性时间步长上的显著性图。文中还给出了事故概率预测曲线,供参考我们可以看到,自下而上的注意捕捉视觉注意区域,而自上而下的注意指示事故发生前后的危险区域。DAF注意图显示了融合注意。4.3. 消融研究在表3中,我们报告了使用DADA-2000数据集进行消融研究的结果。在第一行中,我们删除了固定预测策略和相应的学习对象,我们看到AUC比我们的完整模型(最后一行)低约10%。第二行显示RAE模块对性能增益也有很大贡献。到7628事实真相自下而上的注意力自上而下的注意力DAF注意力图4:DADA-2000数据集的可视化。曲线图上的阴影区域为事故窗口(FPS=30)。对于该示例,在操作阈值0.5(水平虚线)和五帧决策窗口的情况下,模型可以在第42帧附近预测未来事故,这比事故发生早3秒以上。100806040200召回率(%)f-AUC(%)432100 10 20 30 40 50训练时期表3:DADA-2000数据集上的消融研究。在类型列中,(a) 注意力干预(b)奖励曲线图5:DADA-2000数据集上的实验结果。为了进一步查看是否是DRL框架本身导致良好的性能,我们保持DRIVE架构不变,并且仅移除等式(1)中的Jo()(11)用于训练多任务策略网络,使得算法简化为监督学习(SL)。表3的第三行中的结果示出了基于DRL的学习方法(SAC)对于事故预测优于SL算法。为了显示基于SAC的DRIVE变体在训练期间的性能,我们在图中绘制了它们的奖励曲线。5b.结果表明,采用SAC + RAE方法训练DRIVE模型可以获得稳定的递增报酬。此外,自上而下的注意(无BU属性)和自下而上的注意(无TD属性)都有助于学习过程。特别是,我们看到RAE对性能增益的贡献最大。5. 结论在本文中,我们提出了 DRIVE模型来预测来自dashcam 视 频 的 交 通 事 故 。 基 于 深 度 强 化 学 习(DRL),我们显式地模拟了交通观测环境中自下而上和自上而下的视觉注意,并开发了一个随机多任务智能体来动态地与环境交互。通过改进的DRL算法SAC学习DRIVE模型。在真实交通事故数据集上的实验结果表明,该方法具有最佳的预测性能和良好的视觉可解释性.谢谢。这项研究得到了海军研究办公室(ONR)拨款N 00014 -18-1-2875和陆军研究办公室(ARO)拨款W 911 NF-21- 1-0236的支持。本文件中包含的观点和结论为作者的观点和结论,不应被解释为代表ONR、ARO或美国的官方政策(无论是明示还是暗示)。政府的驱动驱动(无注意力)驱动(反向注意力)概率SAC + RAE不带TD属性不含BU属性,不含RAEt=85t=145t=35测试奖励(×1000)类型SACRae注视AUC(%)RL✓✓✗61.91RL✓✗✓66.21SL✗✓✓63.96RL✓✓✓72.277629引用[1] Stefano Alletto , Andrea Palazzi , Francesco Solera ,Simone Calderara,and Rita Cucchiara. DR(eye)VE:用于基于注意力的任务的数据集,其应用于自动驾驶和辅助驾驶。2016年CVPR研讨会。三个[2] 包文涛、齐钰、俞空。基于时空关系学习的不确定性在ACM MM,2020。一、二、三、五、六、七[3] 陈福祥,陈玉婷,于翔,孙敏。在行车记录仪视频中预测事故。InACCV,2016. 一、二、三、四、五、六、七[4] 陈俊文,包文涛,孔宇。序贯关系预测模型对群体活动的预测。在ECCV,2020年。二个[5] Charles E Connor,Howard E Egeth,and Steven Yantis.视觉注意力:自下而上与自上而下。Current Biology,14(19):R850-R852,2004. 三个[6] G. Corcoran和J.克拉克交通风险评估:使用动态注意力的两流方法。在CRV,2019年。二、四[7] M.科尼亚湖巴拉尔迪湾Serra和R.库奇亚拉用于显著性预测的深度多级网络。InICPR,2016. 四、七[8] Tao Deng,Andong Chen,Min Gao,and Hongmei Yan.基于自顶而下的交通驾驶环境显著性模型InITSC,2014.四个[9] Tao Deng,Hongmei Yan,Yong-Jie Li.学习通过随机森林提高驾驶环境中自下而上的注视预测。IEEE TITS,19(9):3059-3067,2017。四个[10] T. Deng,H.延湖,澳-地Qin,T.Ngo和B.S. 曼朱纳特驾驶员如何分配他们潜在的注意力?通过卷积神经网络驱动 注 视 预 测 。 IEEE TITS , 21 ( 5 ) : 2146-2154 ,2020。第1、3条[11] J. Fang,L.杨,J.J. 薛,H.Wang和S.李DADA- 2000:驾驶员注意力能否预测驾驶事故?通过基准分析。在ITSC,2019年。二五六七[12] Mishal Fatima , Muhammad Umar Karim Khan , andChong Min Kyung.用于事故预测的全局特征聚合。arXiv预印本arXiv:2006.08942,2020。二个[13] Scott Fujimoto,Herke Van Hoof,and David Meger.解决行动者-批评者方法中的函数近似误差。在ICML,2018。六个[14] Andreas Geiger,Philip Lenz,and Raquel Urtasun.我们准备好自动驾驶了吗?Kitti Vision基准套件。CVPR,2012。一个[15] Wilson S Geisler和Jeffrey S Perry。用于低带宽视频通信的 实 时 中 心 凹 多 分 辨 率 系 统 。 在 Human Vision andElectronic Imaging III,第3299卷,第294-305页四个[16] Partha Ghosh , Mehdi SM Sajjadi , Antonio Vergari ,Michael Black,andBernhardSc ho¨ l k opf. 从可变到确定的自动编码器。在ICLR,2020年。五个[17] Yash Goyal,Ziyan Wu,Jan Ernst,Dhruv Batra,DeviParikh,and Stefan Lee.反事实的视觉解释。在ICML,2019。七个[18] Tuomas Haarnoja、Aurick Zhou、Pieter Abbeel和SergeyLevine。软演员评论家:具有随机行为者的离线最大熵深度强化学习。在ICML,2018。二、五、六[19] Tuomas Haarnoja,Aurick Zhou,Kristian Hartikainen,George Tucker,Sehoon Ha,Jie Tan,Vikash Kumar,Henry Zhu,Abhishek Gupta,Pieter Abbeel,et al.软行动 者 - 批 评 者 算 法 及 应 用 。 arXiv 预 印 本 arXiv :1812.05905,2018。六个[20] Kaiming He,Xiangyu Zhang,Shaoying Ren,and JianSun.用于图像识别的深度残差学习。在CVPR,2016年。一个[21] Irina Higgins 、 Loic Matthey 、 Arka Pal 、 ChristopherBurgess 、 Xavier Glorot 、 Matthew Botvinick 、 ShakirMohamed和Alexander Lerchner。beta-VAE:使用约束变分框架学习基本视觉概念。在ICLR,2017。五个[22] SeppHochreiter和JürgenSchmidhube r. 长短期记忆。NeuralComputation,9(8):1735-1780,1997. 五个[23] H. Hu,Y.林,M。Liu,H.郑,Y. Chang和M.太阳深度360试点:学习深度代理,以引导通过360°体育视频。在CVPR,2017年。二个[24] 黄晓晖,潘和,阿南德Rangarajan,和San-jay Ranka.智能路口:用于交通视频中实时近事故检测的双流卷积网络。ACM TSAS,6(2),2020。二个[25] M. Jiang,X. Boix湾Roig,J. Xu,L. Van Gool和Q.赵学习预测人类视觉定位的序列。IEEE TNNLS,27(6):1241-1252,2016. 二个[26] 金镇奎和约翰·坎尼。通过可视化因果注意力实现自动驾驶汽车的可解释学习。InICCV,2017. 一、二、四、七[27] Jinkyu Kim , Anna Rohrbach , Trevor Darrell , JohnCanny,and Zeynep Akata.自动驾驶车辆的文字说明。在ECCV,2018。二、三、四[28] 余空 ,陶 志强, 傅云 。对抗 行为 预测网 络。IEEETPAMI,2018。二个[29] Olivier Le Meur和Zhi Liu。自由观看条件下的眼动扫视模型。视觉研究,116:1
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功