没有合适的资源?快使用搜索试试~ 我知道了~
1212612127网络可以以端到端的方式进行训练,以表示关于社交和场景上下文的所有相关信息多智能体张量表示,如图所示。1,在空间上将场景的编码与场景中每个智能体的过去轨迹的编码对齐,这维持了智能体和场景特征之间的空间关系。接下来,通过完全卷积映射形成融合的多智能体张量编码(参见图2),其自然地学习捕获多个智能体与环境之间的交互的空间局部性,如在以智能体为中心的方法中,并且以空间为中心的方式保留融合的多智能体张量内的所有智能体的空间我们的模型解码的综合社会和上下文信息编码的融合多智能体十-索尔到预测的轨迹的所有代理在场景中同时进行。现实世界的行为不是决定性的跟随车道或改变车道),并且相同的机动在执行中可以在速度和方向轮廓方面变化我们使用条件生成对抗训练[12,23]来捕捉预测轨迹的这种不确定性,用有限的样本集表示轨迹的分布。我们在驾驶数据集和行人人群数据集上进行实验。实验结果报告在公开可用的NGSIM驾驶数据集[7]、斯坦福无人机行人人群数据集[25]、ETH-UCY人群数据集[21,27]和私人最近收集的马萨诸塞州驾驶数据集上。定量和定性的烧蚀实验进行了显示模型的各个部分的贡献,和最近的方法的定量比较表明,所提出的方法在高速公路驾驶和行人轨迹预测达到最先进的精度。2. 相关工作用于预测或分类轨迹的传统方法通过手工制作的特征或成本函数对各种交互和约束进行建模[3,5,6,8,15,22,32]。基于逆最优控制的早期方法也使用手工制作的成本特征,并学习线性加权函数来合理化假设由最优控制生成的轨迹[18]。最近基于深度网络的数据驱动的方法[1,4,9,10,13,19,20,24,28,29,31]优于传统方法。这项工作的大部分集中在场景上下文的建模约束[29]或多个代理之间的建模社会交互[1,9,10,13,31];工作的一小部分这两个方面都考虑到了[4,20,28]。以代理为中心的基于神经网络的方法通过对多个代理当前单位Social LSTM [1]在预定义的距离范围内对附近代理的状态向量运行最大池,但不对与远程代理的社交交互进行建模。Social GAN [13]通过使用对抗训练来学习人类行为的随机生成模型[12],为全球场景中涉及的所有代理提供了一种新的池机制。虽然这些类型的最大池聚合函数可以很好地处理不同数量的代理,但当输入代理失去其唯一性时,置换不变函数可能会丢弃信息[28]。相比之下,社会注意力[31]和Sophie [28]通过注意力机制[2,30]和时空图[17]解决了不同代理人之间社会互动的异质性。注意力机制编码了在预测给定代理的轨迹时哪些其他代理最重要。然而,基于注意力的方法是非常敏感的代理商的数量包括-预测n代理商有O(n2)的计算复杂度。相比之下,我们的方法捕获多智能体的相互作用,同时保持O(n)的计算复杂性。上面讨论的以代理为中心的方法不直接利用代理之间的空间关系作为一种替代方案,空间为中心的方法保留代理的空间结构和场景上下文在他们的代表。卷积社会池[9]通过形成一个类似于我们的多智能体张量表示的社会张量,部分保留了智能体位置的空间结构这种方法不对场景上下文进行编码,并且仅可以预测单个智能体Chauffeur Net [4]提出了一种新的方法,通过直接操作Agent的空间特征图和场景上下文来保留Agent和场景的空间结构。在这种方法中,代理被表示为绑定框,并且没有独立的递归编码单元。相比之下,我们的模型通过递归单元编码多个代理的许多数据驱动的方法学习通过最小化重构损失来预测代理的确定性未来轨迹[1,29]。然而,人类行为本质上是随机的。最近的方法通过结合变分自动编码器[11]和逆最优控制[20]或条件生成对抗网[13,28]预测未来轨迹的分布来解决这个问题。GAIL-GRU [19]使用生成式对抗模仿学习[16]来学习再现人类专家驾驶行为的随机策略。R2P2 [24]提出了一种新的成本函数,以鼓励增强1212812129每个代理{x″,x″,..,x′′}根据它们的{x′+x′′,x′+x′′,.,如第3.2节所述的x′+x′′},1 2n1 1 2 nn来自融合的多智能体张量输出c"的坐标(Fig.2)的情况。然后,这些代理特定的表示是作为残差[14]添加到原始编码代理vec。与高斯白噪声向量z级联。体系结构与前面小节中介绍的完全相同,除了在确定性模型中,用于形成最终代理编码向量{x′+x′′,x′+给定代理x′+x′′的编码与112 iix′′,.,x′+ x′′},它对来自z=0向量以解码成其未来轨迹;而在G中,2nn过去的轨迹代理本身,静态场景上下文,以及多个代理之间的交互特性通过这种方式,我们的方法允许每个代理获得专注于自身的重要的是,该模型得到这些嵌入多个代理使用共享的特征提取器,而不是操作n次为n个代理。最后,对于场景中的每个代理,其最终向量x′+x″ ′通过下式解码为未来轨迹预测y′i:z是从高斯分布中采样的。鉴别器(D)D观察给定静态场景上下文中的所有代理的真实过去轨迹,与所有生成的未来轨迹{x1,x2,.., xn,y=1,y=2,.,yn}或所有地面实况未来轨迹{x1,x2,..., xn,y1,y2,.., y n}。它输出实数或每个代理人未来轨迹的假标签场景,使得如果轨迹y是假的,则D(y)=0,并且D(y)=1,如果轨迹y是实数。D股几乎相同我我LSTM解码器。与每个代理的编码器类似,pa-当场景中的代理数量变化时,共享参数以保证网络能够很好地通用。整个架构是完全可区分的,可以端到端训练,以最大限度地减少重建损失体系结构如前所述,除了以下差异:(1)它的单智能体LSTM编码器将过去和未来的轨迹作为输入,而不仅仅是过去的轨迹;(2)作为分类器,它不使用LSTM将最终的agent vectorx′+x′′解码为未来我我在预测的未来轨迹{y=1,y=2,.,yn}和观测到的地面实况未来轨迹{y1,y2,...,y n}:轨迹 相反,最终代理编码被完全输入到连接的层被分类为真实的或假的。LL2/L1(yi,yi)=T′t=1L2/L1(y=t,y=t),其中L2/L1在-损失对抗性损失LGAN 对于给定场景,表明我们可以使用L2或L1距离,重建误差的两个位置。L甘(场景)=ΣminmaxlogD(yi)+log(1−D(yi)),(1)3.3.对抗性损失我们使用条件生成对抗训练[12,23]来学习一个随机生成模型,该模型捕获了我们预测的多模态不确定性GAN由两个网络组成,一个生成器G和一个相互竞争的CJDG学习数据的分布并生成样本,而D学习区分所生成样本的可行性或不可行性。这些网络在两个玩家的最小-最大游戏框架中同时训练。在我们的设置中,我们使用条件G来生成多个智能体的未来轨迹,以所有智能体的过去轨迹、静态场景上下文和随机噪声输入为条件来创建随机输出。同时,我们使用D来区分生成的射束是真实的(地面实况)还是虚假的(生成的)。G和D在编码部分与第3.1节中提出的确定性模型G和D都是用前面小节中介绍的训练确定性模型的详细的架构和损耗描述如下。生成器(G)G观察给定场景{x1,x2,.,x n},以及静态场景上下文c.它联合输出预测的未来轨迹{y=1,y=2,.,yn}通过解码最终代理向量G Di∈场景其中{i|i∈scene}是g iv en场景中的智能体集合,yi和yi分别表示地面真值(真实)和生成(f a k e)射束,G表示生成MATF我们正在优化的网络。为了训练MATF GAN,我们使用以下损失:θ=arg maxE场景[LGAN(场景)]ΘΣ+λLL2/L1(y∈i,yi)],(2)i∈场景其中Θ是模型的参数集,λ加权重建损失与对抗损失的贡献。4. 实验在实验和结果部分,我们在驾驶数据集[7]和行人人群数据集[21,27,25]上评估我们构建了消融研究模型的不同基线变量,并与最先进的替代方法进行了定量比较[1,8,9,13、15、19、20、28]。定性的结果也提出进一步的分析。4.1. 数据集我们使用公开可用的NGSIM数据集[7],最近收集的马萨诸塞州驾驶数据集,12130合法可用的ETH-UCY数据集[21,27]和公开可用的斯坦福无人机数据集[25]用于培训和评估。NGSIM。一个驾驶数据集,由45分钟时间跨度内的真实高速公路交通轨迹组成。数据由放置在640米跨度的US101上的固定鸟瞰摄像机记录注释了在这45分钟内通过该区域的所有车辆的轨迹。该数据集由各种交通状况(轻度、中度和拥堵)组成,总共包含约6k辆车辆伦理一组相对较小的基准行人人群数据集。有5个数据集,4个不同的场景,包括1.5k的行人轨迹。我们使用与以前工作中报告的相同的交叉验证训练测试分割度量[13,28]。斯坦福无人机大规模行人人群数据集随机模型,第5.1节中N=3,N=20如第5.2节[13具体实施见补充资料。5. 结果5.1. 驱动数据集NGSIM数据集。我们采用同样的实验-tal设置并直接报告所呈现的结果,如[9]中所示:我们将轨迹分成8秒的段,并且在推理和预测过程中考虑了640米跨度内出现的所有代理。 我们使用3秒的轨迹历史和5秒的预测水平线。LSTM的运行速度为0.2s。 与[9]中一样,我们报告了相对于每个t.预测范围内的步长t:RMSE(t)=包括20个独特的场景,其中行人,bicy-滑雪者、滑板者、手推车、汽车和公共汽车在一个1Σni=1,2,..,n((xxxit— x它)2+(y=0)— y该团体)2),其中n为大学校园从鸟瞰图提供原始的静态场景上下文图像这些场景包含丰富的人与人之间的互动,通常发生在高密度的人群中,以及必须避免的各种物理地标,如建筑物和圆形物我们使用标准测试集进行定量评估。标准训练集中的一些场景不用于我们的训练过程,而是用于定性评估。4.2.基线模型我们构建了一组消融研究模型的基线变量。LSTM:一个简单的确定性LSTM编码器-解码器。它与第3节中介绍的单代理LSTM编码器和解码器共享完全相同的架构,以便进行公平比较。单代理场景:这个确定性模型与第3节中介绍的架构完全相同,除了它每次只接受一个具有场景表示c的代理历史xi并输出lyyi,因此模型推理场景-代理交互,但完全不知道多代理交互。多智能体:这个确定性模型与第3节中描述的模型具有相同的细节,除了场景表示c不作为输入提供。该模型只考虑场景上下文信息中缺少的多智能体交互。多代理场景:第3节中介绍的确定性模型。GAN:3.3节中介绍的随机模型。类似于Social GAN[13],我们采样N次并报告L2意义上的最佳轨迹,以便与验证集中的座席总数x,它是注意在未来时间步t的数据集中第i辆汽车的x坐标,并且注意在t的y坐标。方法1s2s3s4s5sCV [9]0.731.783.134.786.68LSTM基线0.661.622.944.636.63C-VGMM + VIM [8]0.661.562.754.245.99MATF多代理0.671.512.513.715.12[19]第十九话0.691.512.553.654.71[9]第十九话0.611.272.093.104.37MATF GAN0.661.342.082.974.13表1. NGSIM [7]数据集上的定量结果。报告了预测水平带中每个未来时间步长的RMSE(单位:米)定量结果示于表1中。我们的确定性模型MATF多智能体优于最先进的确定性模型C-VGMM + VIM[8],这是一种基于马尔可夫随机场变分高斯混合模型的最新车辆交互方法。我们包括与GAIL-GRU[19]的比较;然而,请注意,该模型在预测给定代理时可以访问其他代理的未来地面实况轨迹,而MATF和其他模型则不能,因此这些结果并不完全可比。我们将我们的随机模型MATF GAN与Social Conv[9]进行了比较,SocialConv是一种通过表示机动来捕获未来轨迹分布的方法。MATF GAN的性能达到了最先进的水平,在较长的预测水平(3- 5秒)下的性能得到了特别的提高。请注意,Social Conv可以访问来自机动标签的辅助监督 , 而 MATF 不 需 要 此 信 息 。 多 代 理 场 景 并 不 比NGSIM上的多代理更好,因为NGSIM1213112132′在[13]中,我们报告了预测范围内关于每个时间步长t的平均位移误差和由于迭代过程的IOC和O(n2)为基础的注意机制,分别接近。相比之下,我们的模型在计算复杂性方面更有效,因为我们共享了卷积运算。ADE(i)为1ΣTj=1,2,..,T′1Σ、(xij−xij)2+(yij−yij)2Ade=ni =1,2,..,n、ADE(i)FDE(i)为FDE=(xiT′−xiT′)2+(yiT′−yiT′)21ΣFDE(i),ni =1,2,..,n其中,n是验证集中的代理的总数,xij和yij表示数据集中第i个代理在未来时间步j的坐标,并且T'表示最终的未来时间步。表2显示了我们的结果。MATF在确定性和随机性设置中表现最好。数据集确定性随机S-LSTMMATFS-GANMATF GANETH1 .一、09/2. 351 .一、33/2。490的情况。81/1。521 .一、01/1.75酒店0的情况。79/1。760的情况。51/0。950的情况。67/1。370的情况。43比0 80Univ0的情况。67/1。400的情况。56/1。190的情况。一赔六260的情况。44/091ZARA10的情况。47/1. 000的情况。44/0930的情况。34/0680的情况。26/0。45ZARA20的情况。56/1。170的情况。34/0730的情况。42比0 840的情况。26/0。57AVG0的情况。72/1。540的情况。64/1. 260的情况。57/1。130的情况。48比0 90表2. ETH-UCY数据集的定量结果。ADE / FDE的世界坐标在4米。给出了8s的预测层位。我们的确定性MATF模型优于Social LSTM,我们的随机MATF GAN优于Social GAN。我们不-直接报告Social LSTM和Social GAN的结果[13]。斯坦福无人机数据集。我们采用相同的实验设置,并直接报告所呈现的结果在[28]中:我们将轨迹分成8个片段,并且在推理和预测过程中考虑了场景中出现的所有代理。我们使用3.2s的轨迹历史和4.8s的预测范围。LSTM以0.4s/时步运行。如[25]中所述,我们报告ADE和FDE。图5示出了使用确定性模型的定性消融结果;只有完整的MATF多代理场景模型才能捕获数据中的行为范围。确定性和随机性模型的定量结果如表3所示。MATF多智能体场景在ADE中的性能优于其他决策模型,MATF GAN的性能接近最先进的水平。在确定性模型中,Social LSTM在FDE中实现了最佳性能。在随机模型中,Desire通过使用变分自动编码器[11]和逆最优控制来生成和排列轨迹而获得力量;苏菲表现最好,其强大的注意力为基础的社会和物理推理模块。然而,这些方法的计算复杂度高于其他方法。表3.斯坦福无人机[25]数据集上的定量结果。平均值和最终位移误差的报告。计算复杂性w.r.t代理数量n在一个给定的场景。我们还分析了影响性能的因素在我们的模型,特别是空间分辨率的多智能体张量的影响。表4显示了分别由于低/高分辨率下的欠拟合/过拟合而存在U形性能曲线,并且理想分辨率我们报告的设置为32×32空间格网分辨率4282162322642确定性AdeFDE三十二0868岁08三十二3666岁。46三十2662. 73二十七岁82五十九3129岁4762. 60随机AdeFDE二十四岁5739岁4423岁55三十六46二十二岁69三十三岁。45二十二岁59三十三岁。5323岁50三十五72表4.空间网格分辨率对预报精度的影响。结果报告在斯坦福无人机数据集4。8s地平线。6. 讨论我们提出了一种用于轨迹预测的架构,该架构对场景上下文约束和社会交互进行建模,同时保留多个代理和场景的空间结构,这与文献中更常用的纯粹以代理为中心的方法不同。我们的动机是,场景上下文约束和社会互动模式是不变的绝对坐标,他们发生;这些模式仅取决于代理和场景之间的相对位置。卷积层适合于通过跨代理和空间共享参数来建模这些类型的位置不变的空间交互,而最近的方法如社会池[1,13]或注意力机制[31]不能明确地推理代理之间的空间关系,也不能在多个空间尺度上推理这些关系。我们的多智能体张量融合架构自然地对此进行建模。据我们所知,MATF是第一种将来自静态场景上下文的信息与多个动态场景上下文相融合的方法。方法AdeFDE复杂性确定性LSTM基线37.3577.13O(n)社会力量[15]36.3858.14O(n)社交LSTM [1]31.1956.97O(n)MATF多代理30.7565.90O(n)MATF多智能体场景27.8259.31O(n)随机社交GAN [13]27.2541.44O(n)欲望[20]19.2534.05O(nK)苏菲[28]16.2729.38O(n2)MATF GAN22.5933.53O(n)12133图5.斯坦福无人机数据集上的消融结果。从左到右是来自MATF多Agent场景、MATF多Agent和LSTM的结果,所有这些都是确定性模型。蓝线显示过去的轨迹,红色的地面实况,绿色的预测。所有结果均来自定性验证数据集。图中所示的所有代理轨迹都是通过一次向前传递联合预测的绿色预测轨迹越接近我们的模型预测:(1)两个从顶部进入环形交叉路口的智能体将向左离开;(2)一个从环形交叉路口上方通道的左侧来的智能体向左转向图像的顶部移动;(3)一个智能体在环形交叉路口上方和右侧的建筑物门口减速。(4)在一个有趣的失败案例中,环形交叉路口右上角的一个智能体向右转向,向图像的顶部移动;这个模型预测了转弯,但没有预测它会有多急。我们的多Agent场景模型可以正确预测这些和其他各种定性模式,其中一些可以通过我们的多Agent模型进行近似,但大多数不能通过基线LSTM模型进行预测代理状态,同时在整个推理过程中保持其空间结构,以弥合以代理为中心和以空间为中心的轨迹预测范例之间的差距。我们将我们的模型应用于两个不同的轨迹预测任务,以证明其灵活性和从数据中学习不同类型的行为,代理类型和场景的能力在车辆预测领域,我们的模型在NGSIM数据集中的车辆轨迹的长期预测方面取得了最先进的相对于[9]的基于随机变量的方法,我们的对抗训练随机预测模型表现最好,这表明有必要表示– whether explicit as in [我们对马萨诸塞州驾驶数据集的消融研究表明,场景和多智能体交互的表示对于在比NGSIM更复杂的场景背景下(更大的车道曲率,更多的入口和出口等)进行准确的轨迹预测是必要的。我们对最先进的行人数据集的应用[25]表明, 业绩与此前公布的业绩相比。虽然最近的一些模型比我们的模型实现了更高的准确性[28,20],但所有模型都使用了截然不同的架构;有趣的是,发现新颖的以空间为中心的体系结构也可以实现高标准的性能。今后工作应该检查影响性能的因素,以及不同体系结构的优缺点在未来的工作中,我们计划将结构化机动表示的无监督学习集成到我们的框架中。这将增加我们模型预测的可解释性,同时使我们的模型能够更好地捕获代理场景分布中的多模态结构代理人之间的互动。社会轨迹预测是一项复杂的任务,它依赖于从场景中提取结构的能力和智能体的联合运动历史我们的中心目标是结合代理和空间为中心的方法来解决这个问题。除了实现更准确的多智能体轨迹预测之外,我们相信,设计更好的模型的工作将继续产生对人类交互结构的进一步见解。7. 确认这项工作主要在ISEE,Inc.进行。在ISEE团队和ISEE数 据 平 台 的 支 持 下 。 这 项 工 作 得 到 了 NSFC-61625201,61527804的部分支持引用[1] A. Alahi,K.Goel,V.Ramanathan,A.罗比凯湖Fei-Fei和S.Savarese 社会lstm:人类轨迹预测12134拥挤的空间在2016年IEEE计算机视觉和模式识别国际会议上。二四七[2] D. 巴赫达瑙湾Cho和Y.本吉奥。通过联合学习对齐和翻译的神经机器在ICLR。2015. 2[3] M.巴赫拉姆角Hubmann,A. Lawitzky,M. Aeberhard和D.沃赫尔基于模型和学习的交互感知机动预测框架。IEEE Transactions on Intelligent Transportation Systems,2016。2[4] M.班萨尔A。Krizhevsky和A. S.奥加尔Chauffeurnet:通过模仿最好的和综合最坏的来学习驾驶。CoRR,abs/1812.03079,2018。2[5] W. Choi和S. Savarese多目标跟踪和集体活动识别的统一框架。计算机视觉ECCV,2012年。2[6] W. Choi和S. Savarese从视频中了解人们的集体活动。IEEE Transactions on Pattern Analysis and MachineIntelligence,36(6):12422[7] J. Colyar和J.哈尔基亚斯美国高速公路数据集。联邦高速公路管理局(FHWA),技术。代表FHWA-HRT-07-030。二、四、五[8] N. Deo,A. Rangesh和M. M.特里维迪越野车怎么行驶?一个统一的框架,用于机动分类和运动预测。arXiv:1801.06523,2018。二、四、五[9] N. Deo和M. M.特里维迪用于车辆轨迹预测的卷积社会汇集在IEEE计算机视觉和模式识别研讨会联合检测,跟踪和预测在野外,2018年。二三四五八[10] N. Deo和M.M. 特里维迪基于机动的lstms环境车辆多模态轨迹预测在IEEE智能车辆研讨会(IV),2018年。二、三[11] K. Diederik和W.最大 自动编码变分贝叶斯。在ICLR。2014. 二、七[12] I. 古德费罗 J. 波吉特-阿巴迪 M. 米尔扎 B. 许、D. 沃德-法利,S。奥扎尔A.Courville和Y.本吉奥。生成对抗网络。神经信息处理系统的进展,第2672-2680页。2014. 二、四[13] A. Gupta,J. Johnson,L. Fei-Fei,S. Savarese和A.阿拉希Social gan:社交上可接受的生成对抗网络轨迹。在IEEE计算机视觉和模式识别国际会议集,2018年。二四五六七[14] K.他,X。Zhang,S. Ren和J. Sun.用于图像识别的深度残差学习。IEEE计算机视觉与模式识别国际会议,2016年。4[15] D. Helbing和P.莫尔纳行人动力学的社会力模型Physicalreview E,51(5):4282,1995. 二四七[16] J. Ho和S.厄蒙生成对抗模仿学习。神经信息处理系统进展29,第4565-4573页。Curran Associates,Inc. 2016. 2[17] A. 贾 恩 A.R. Zamir , S.Savarese 和 A. 萨 克 塞 纳 结 构 -rnn:时空图的深度学习。在2018年国际机器人与自动化会议(ICRA)的会议记录中,第5308-5317页,2016年。2[18] K. M.基塔尼湾D. Ziebart,J. A. Bagnell和M. 赫伯特活动预测。ECCV,2012年。2[19] A. Kuefler,J.Morton,T.Wheeler,and M.Kochenderfer用生成对抗网络模拟驾驶员行为。智能汽车研讨会(IV),2017年。二、四、五[20] N.李,W。Choi,P. Vernaza,C. B. Choy,P. H. S.托和M. Chandraker欲望:在动态场景中与交互代理的遥远未来预测。在2017年IEEE计算机视觉和模式识别会议上,CVPR 2017,檀香山,HI,美国,2017年7月21日至26日,第2165- 2174页,2017年。二、四、七、八[21] A. Lerner,Y. Chrysanthou和D. Lischinski群众的榜样。IEEE第12届计算机视觉国际会议(ICCV),2009年。二、四、五[22] R. Meiden,A. Oyama和M. Shah.基于社会力模型的异常人群行为检测。IEEE Transactions on CVPR,2009年。2[23] M. Mirza 和 S. 奥 辛 德 罗 条 件 生 成 对 抗 网 。 arxiv :1411.1784,2014年。二、四[24] N. Rhinehart,P. Vernaza和K.喜谷R2p2:一个可重新建模的前推策略,用于多样化、精确的生成路径预测。在欧洲计算机可视化会议(ECCV 2018),计算机科学系列讲座笔记的一部分(LNCS,第11217卷),第7942018年10月。2[25] A. Robicquet,A. Sadeghian、A. Alahi和S. Savarese学习社交礼仪:拥挤场景中的人体轨迹预测。欧洲计算机视觉会议(ECCV),2016年。二、四、五、七、八[26] O.龙内贝格山口Fischer和T.布洛克斯U-net:用于生物医学 图 像 分 割 的 卷 积 网 络 。CoRR , abs/1505.04597 ,2015。3[27] K. S. S. Pellegrini、A. Ess和L. V.Gool你永远不会独行:多目标跟踪的社会行为建模。IEEE第12届计算机视觉国际会议(ICCV),2009年。二、四、五[28] A. Sadeghian,V. Kosaraju,A. Sadeghian,N.广濑,S. Savarese Sophie:一个专注的GAN,用于预测符合社会和物理约束的路径。arXiv,CoRR,abs/1806.01482,2018。二、四、五、七、八[29] A. Sadeghian,F. Legros,M.瓦桑河Vesel,A. Alahi和S. Savarese车联网:千里眼的专注循环网络。arXiv:1711.10061,2017. 2[30] A. 瓦斯瓦尼北沙泽尔,北Parmar,J.乌斯科赖特湖琼斯A. N.戈麦斯湖,澳-地联合凯泽和我。波洛苏欣注意力是你所需要的。神经信息处理系统进展30,第5998-6008页。Curran Associates,Inc. 2017. 2[31] A. Vemula、K. Muelling和J.哦社会关注:在人群中引起注意。在2018年国际机器人与自动化会议上,2018年5月。二、七[32] K. 山口A.C. 贝格湖E. Ortiz和T.L. 伯格。你和谁在一起,你要去哪里?IEEE Transactions on CVPR,2011年。2
下载后可阅读完整内容,剩余1页未读,立即下载
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![application/x-zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)