没有合适的资源?快使用搜索试试~ 我知道了~
用于少样本学习的方召1[0000-0002-6772-8042],赵健1,2[0000-0002-3508-756X],水城岩1、3、贾氏峰1[0000−0001−6843−0064]1新加坡国立大学新加坡elezhf@nus.edu.sgzhaojian90@u.nus.edu{eleyans,elefjia} @ nus.edu.sg2中国湖南国防科技大学3奇虎360人工智能研究院,中国抽象。本文提出了一种新的动态条件卷积网络(DCCN)来处理条件少样本学习,即每个条件只有少量的训练样本 DCCN由两个子网组成:DyConvNet包含一个动态卷积层一组基滤波器;CondiNet从条件输入预测一组自适应权重,以线性组合基础滤波器。以这种方式,可以针对每个条件输入动态地获得特定的卷积核。滤波器组在所有条件之间共享,因此仅需要学习低维权重向量。当训练数据有限时,这显著地促进了跨不同条件的参数学习。我们评估DCCN的四个任务,可以公式化的条件模型学习,包括特定对象计数,多模态图像分类,短语接地和基于身份的人脸生成。大量的实验表明,该模型的优越性,在有条件的少拍学习设置。关键词:条件模型·少样本学习·深度学习·动态卷积·滤波器组1介绍条件模型是一种重要的机器学习框架,可以用于许多任务,例如多模态学习和条件生成模型。它通常包含两个输入。一个是任务的兴趣,另一个是条件输入,提供特定情境的附加信息。最近,深度条件模型引起了人们的广泛关注,因为深度神经网络在许多重要领域取得了前所未有的进展,例如计算机视觉[13,15],自然语言处理[37,19]和语音识别[26,1]。然而,它们通常在具有挑战性的条件少次学习场景中遭受性能下降,其中由于条件空间的高维数,每个条件的训练样本是有限的,尽管训练样本的总数可能很大。* 表示相等的贡献。†Jian Zhao是通讯作者,主页:https://zhaoj9014.github.io/。2F. Zhao,J. Zhao,S. Yan和J. 冯基于深度学习的方法通常需要大量的标记用于训练的数据以及专门的计算平台和优化策略,以实现令人满意的性能。由于严重的过拟合问题,它们的性能通常会在训练样本量较小的学习问题上严重下降。相比之下,人类,甚至儿童都可以掌握一个新的概念(e。G. ,即“图形化”)可标记为“简单有效”,并可合理地从仅短时间暴露到几个示例(例如,,书中的图片)[4,20]。这一现象激发了对小样本学习问题的研究,即. ,任务是从每个类别的几个甚至单个注释示例中学习新概念[3,36]。少量学习在学术和工业上都具有重要意义,因为1)擅长该任务的模型将有助于减轻昂贵且劳动密集型的数据收集和标记,因为它们不需要大量标记的训练数据来实现合理的性能; 2)实际中的目标数据通常有大量不同的类别,但每个类别的示例很少。例如,当在自然环境中操作时,机器人在看到每个物体的几个例子后就可以识别许多不熟悉的物体[17]。在这种情况下的泛化能力将有利于更有效地建模实际的数据分布。在本文中,我们主要集中在改进两种模型在条件少镜头的学习场景,即。区分型和生成型。判别模型通常采用具有巨大人类工程努力的手工制作的特征,然后从大量标记数据中采用度量学习算法或数据驱动的深度学习解决方案。然而,这种数据驱动的方法在计算上太复杂而不能满足实际应用。此外,覆盖所有潜在变化的大量标记训练数据通常是昂贵且不可用的。生成模型通常利用数据生成模型,例如、生 成 对 抗 网 络 ( GANs ) [10] 、 条 件 生 成 对 抗 网 络 ( Conditional-GANs)[24]、边界平衡生成对抗网络(BE-GANs)[2]等。用于合成用于数据扩充的辅助训练数据。然而,在目前的生成方法中,合成数据的质量仍然远远不能令人满意地执行实际分析任务。为了解决具有挑战性和现实性的条件少镜头学习问题,我们探索了一种新的方法,从每个条件的一些标记示例中学习深度条件模型,该方法可以很好地推广到相同条件的其他情况。条件可以基于类别标签、数据的某一部分、或者甚至来自不同模态的数据。此外,为了实现高效率的实时计算,我们将这种条件少次学习问题体现为以端到端的方式联合学习双子网。一个子网被称为DyConNet,它包含一个动态卷积层,该层具有一组可训练的基础滤波器。给定任何条件输入,另一个称为CondiNet的子网预测一组自适应权重以线性组合基础滤波器。以这种方式,可以针对每个条件输入动态地获得特定的卷积核,如图1B所示1.一、持续时间动态条件网络31*+w2*+X基滤波器嵌入YWFig. 1. DyConvNet的动态卷积层。它有一个由几个基本滤波器组成的滤波器 组。 通过从条件输入Y嵌入CondiNet来预测一 组 自适 应 权 重W ={w1 ,w2,···,wn},以在基础滤波器上执行线性组合,这产生应用于特征图X的卷积滤波器通过优化,滤波器组在所有条件之间共享,因此对于每个条件仅需要学习低维权重向量,这显著地补偿了少拍设置中的有限信息,并且促进了跨条件的样本有效参数学习。我们称这个模型为动态条件卷积网络(DCCN)。我们评估DCCN四个不同的任务,所有这些都可以制定为条件模型学习,包括特定对象计数,多模态图像分类,短语接地和基于身份的人脸生成。建议DCCN优于其他歧视性和生成的条件模型的所有任务。我们在本文中的贡献总结如下。(1)我们提出了一种新颖有效的深度架构,它包含一个动态卷积子网(DyConvNet)和一个条件子网(CondiNet),它们共同执行学习,以端到端的方式学习。这种深度架构为高效的条件少镜头学习提供了统一的框架。(2)动态卷积通过线性组合DyConvNet中的滤波器组的基础滤波器与由CondiNet从条件输入预测的一组自适应权重来实现,这不同于通过直接级联组合两个输入的现有条件学习方法(3)我们的架构是通用的,适用于多个不同的条件模型学习任务。我们的深度架构的源代码和训练模型将提供给社区。2相关作品我们的工作与文献中的其他几个有关然而,我们相信是第一个研究可以在少数情况下学习深度条件模型参数的方法。自其诞生以来,少镜头学习已经在生成方法的背景覆盖所有变化的真实注释数据是前-4F. Zhao,J. Zhao,S. Yan和J. 冯然而,要实现这一点是不可能的,因此合成真实数据有利于更有效地训练用于少量学习的深度模型,通过增加具有所需变化的样本数量并避免昂贵的注释工作[40,39]。由于特征空间的高维性,从有限的标记训练样本中成功生成可以通过各种方式访问这样的附加信息。例如,1)可以从大量的未标记数据中获得更多感兴趣类别的样本,如在半监督学习中[42,6]; 2)可以使用简单的变换来增强可用的标记训练数据,例如抖动,噪声注入等。3)来自其他相关类别的样本可以通过迁移学习来利用以辅助参数学习[21]; 4)可以合成新的虚拟样本,或者使用基于GAN的技术显式渲染[10,24,2],或者通过合成表示隐式创建[25,41]。最近,Mehrotra et al. [23]认为,具有可学习和更具表现力的相似性目标是一个重要的缺失组件,并提出了一种受深度残差网络启发的网络设计,该网络设计允许有效计算这种更具表现力的成对相似性目标。这些方法可以显着提高少数拍摄学习的性能,如果一个生成模型,占底层数据分布是已知的。然而,这样的模型通常是不可用的,并且额外的真实或合成样本的生成通常需要大量的努力。少数学习方法的一个不同趋势是学习判别嵌入空间,这通常是用连体网络完成的[5]。给定一个新类别的范例,通过最近邻等简单规则在嵌入空间中进行识别训练通常通过根据距离对配对进行分类来执行一个变体是使用外积组合嵌入,这产生了双线性分类规则[22]。建立在暹罗建筑所取得的进步,Vinyals等人。[33]采用了基于深度神经特征的度量学习的思想,以及利用外部记忆增强神经网络的最新进展。他们提出了一个框架,该框架学习一个网络,该网络将一个小的标记支持集和一个未标记的示例映射到其标签,从而避免了微调以适应新的类类型的需要。Ravi和Larochelle [31]提出了一种基于长短期记忆(LSTM)的Meta学习者模型,以学习用于在少数情况下训练另一个学习者神经网络分类器的精确优化算法。其模型的参数化允许其学习特定于将进行设定量的更新的场景的适当参数更新,同时还学习允许训练的快速收敛的学习器(分类器)网络的一般初始化然而,这些方法没有考虑条件模型学习,并且通常是计算昂贵的有效和高效地解决少次学习问题。与以前的尝试相比,我们提出的方法在概念上是简单的,但功能强大的条件少拍学习,它允许学习所有的段落。动态条件网络5Nrameters从无到有,概括了不同的任务,并且可以被视为一个有效地“学习学习”的网络。在不同的任务中,与生成型和区分型对应物的详细比较在第二节中提供。4.第一章3动态条件参数预测尽管深度神经网络最近取得了成功,但将这样的模型适应于非常大量的类别仍然具有挑战性,每个类别具有迄今为止,许多作品主要集中在学习从输入到输出的一对一映射。然而,许多有趣的问题更自然地被认为是概率一对多映射。例如,在图像标记的情况下,可以存在可以适当地应用于给定图像的许多不同的标签,并且不同的数据注释器可以使用不同的术语来描述相同的图像。帮助解决该问题的一种方法是利用来自其他模态的额外信息并使用条件模型,将小样本和条件变量作为输入,并且将一对多映射实例化为条件预测分布。由于我们在条件建模任务中考虑了少量学习,因此我们从制定标准条件模型学习开始。其目的是找到使预测函数h(X)的损失L最小化的参数W|Y; W),在N个样本xi和对应条件yi上平均:min1N L(h(x|y; W)),⑴Σi iWi=1其中模型可以是用于学习分类器的判别模型,或者是用于学习X和Y上的条件分布的生成模型。在条件空间的维度太高的情况下,即使总共存在大量训练数据,每个条件状态的训练样本仍然稀缺,并且目标是从具有感兴趣的条件y的小样本中学习W,称为条件少次学习。有条件的少镜头学习的主要另一个挑战,这是实际的重要性,在应用中的少镜头学习,是提高效率的优化,为Eqn。(一).我们建议通过使用元学习过程从具有条件y的小样本学习预测器的参数W来解决这两个挑战,即,非迭代前馈函数(Meta学习器),其将(y;W’)映射到预测器(基础学习器)的最优W。我们使用神经网络模型来参数化这个函数,我们称之为CondiNet。CondiNet输出取决于条件y,条件y代表感兴趣的条件,并且包含其自身的参数W’我们如下训练CondiNet,以便它可以为不同的任务产生合适的W。我们使用以下目标函数优化CondiNet。前馈CondiNet评估为6F. Zhao,J. Zhao,S. Yan和J. 冯NN比求解方程的优化问题快得多。(一).min1NL(h(x;(y;W′).(二)Σi ii=1重要的是,等式11的原始W的参数(1)现在动态地适应于每个条件输入y。请注意,训练方案让人想起同样采用双子网的暹罗网络[5]然而,siamese网络采用相同的网络架构,共享权重,并计算其输出的内积以产生相似性得分:min1NL(方法动态SMPL非线性SP GroundeR 8-D 16-D 32-D精度50.18 50.65 50.52 42.08 43.89 47.81表4. Flickr30k实体数据集上各种短语类型的短语基础的准确性(IoU>方法人服装身体部位动物车辆文书场景 其他SMPL57.8934.6115.8755.9852.2523.4634.2226.23地滚球61.0038.1210.3362.5568.7536.4258.18 29.08动态67.3738.1218.2269.9356.0437.5754.05 32.59空间特征图。最后,提案特征分别与短语向量连接,通过两个全连接层计算相关性得分图图4(b)示出了所提出的基于动态卷积的短语接地。首先利用动态条件层将短语向量与图像特征图相结合,得到相关特征图。然后应用ROI池化以获得每个区域建议的相关特征图,其被依次馈送到平均池化和全连接层以计算相关性得分。数据集和评估指标。Flickr30k实体数据集[30]用于评估我们的短语基础模型,这是Flickr30K数据集的扩展[38]。它由31,000张图像及其标题组成,这些标题与276,000个手动注释的边界框相关联我们使用2,000张图像进行测试,剩余的图像用于训练。 在[30]之后,如果单个短语(例如,彩虹标志)具有多个地面实况边界框,框的并集用于表示短语。如果针对短语预测的图像区域和真实边界框的IoU大于0.5,则预测区域被认为对于短语是正确的。建筑和培训。与[32]相同,我们采用VGG-16网络来提取图像特征图,该特征图在PascalVOC数据集上进行预训练以进行对象检测,然后在训练整个条件模型时固定LSTM的隐藏单元和输入单元的数量都是512。动态层的维度分别设置为8、16和32由边缘框生成的100个区域建议被用作候选边界框。我们采用Softmax损失来学习模型,以最大化输入短语与正确区域建议的相关性得分我们训练了90个epoch。初始学习率为0.01,每30个epoch它下降10倍结果和分析。表3报告了在Flickr30k实体数据集上IoU> 0.5的条件下不同方法可以看出,当动态层的维度为16时,与最先进的方法相比,非线性SP [34]和GroundR [32]具有与图类似的框架。4(a),即使用完全连接的层来组合12F. Zhao,J. Zhao,S. Yan和J. 冯噪声Face ID(a) 条件GAN噪声Face IDFace ID(b) 基于动态卷积的条件遗传算法图五、基于身份的人脸生成流程图图像区域和短语。SMPL [35]利用二分匹配来计算它们的相关性得分。然而,所有这些方法都没有考虑到,尽管在该数据集中存在大量的训练图像,但是对于每个短语只有少量的训练图像可用。从这个意义上说,这个任务可以被看作是一个有条件的少次学习问题,我们的动态条件层可以更好地解决这个问题。表4报告了针对不同类型的短语的短语基础的准确性。对于大多数短语类型,我们的方法比其他方法具有更好的性能。虽然有一些相位接地方法比我们的方法具有更好的性能,例如,RtP [28]和SPC+PPC [29],我们认为这些方法采用额外的线索来改善图像区域和短语的相关性学习,例如区域-短语兼容性,候选位置和大小。实际上,我们的模型更像是一个概念验证,并应用于短语接地的任务,以验证其在条件少镜头学习的有效性。它与短语接地文献中发现的许多技术改进正交。4.4基于身份的人脸生成所提出的DCCN也可以用于改进条件生成模型。在这里,我们测试DCCN基于身份的人脸生成的任务图5(a)示出了基于条件生成对抗网(GAN)[24]的一般框架,其由生成模型G和判别模型D组成。在G中,通过全连接层将先验输入噪声和面部ID组合以获得联合隐藏表示。然后将该表示馈送到去卷积神经网络中以生成输入ID的面部图像。在D中去CNNCNNFace ID去CNNCNN动态卷积动态卷积分类器分类器FC层FC层动态条件网络13(a) 精密度-覆盖率曲线(b)累积匹配特征曲线图六、基于身份的人脸生成中人脸识别的精确覆盖和累积匹配特征曲线采用卷积神经网络提取由G生成的人脸和真实人脸的特征。然后将人脸ID的特征和嵌入向量连接并馈送到分类器中,该分类器判断该人脸对于该ID是否是真实的。所提出的基于动态卷积的条件GAN如图所示。5(b)。我们使用动态条件层将人脸ID分别与D中的噪声和G中的图像特征相结合。数据集和评估指标。我们在MS-Celeb-1 M数据集[12]上评估了我们的模型,该数据集包含100 K受试者的约1000万张人脸图像对于训练集,我们随机抽取100个受试者和每个受试者的10张人脸图像来模拟有条件的少数镜头设置。在测试中,给定生成的人脸图像,使用预先训练的人脸识别模型来预测它属于100个受试者中的哪一个为每个受试者生成50个图像。精度覆盖率(PC)曲线和累积匹配特征(CMC)曲线被用来衡量人脸识别的性能建筑和培训。我们分别在生成模型和判别模型中使用五层全卷积和去卷积网络。为了学习条件GAN,我们交替地优化生成模型G和判别模型D。 D被训练为在输入ID的条件下最小化分类损失,并且G被训练为在相同条件下最大化损失,即,G试图生成人脸图像,这可能会混淆G。结果和分析。图6示出了根据本发明的实施例的组合物的PR和CMC曲线。用于生成的面部图像的面部识别表5报告了覆盖率=0.99和0.95时的精度以及等级1和5的准确度可以观察到,动态条件GAN在所有度量方面比普通条件GAN实现更好的性能动态层通过在条件间共享滤波器组,在训练数据有限的情况下有效地融合条件输入信息。生成的面的一些示例如图所示7.第一次会议。每行面对应于14F. Zhao,J. Zhao,S. Yan和J. 冯表5.用于生成的人脸的人脸识别的准确度和精确度@覆盖方法准确度@覆盖基于动态卷积的条件GAN图7.第一次会议。基于身份的人脸生成示例一个主题。由动态条件GAN生成的人脸与被摄体的真实人脸明显更相似。5结论本文研究了条件少样本学习问题。提出了一种动态条件卷积网络,当每个条件只有少量训练样本时,将条件输入纳入深度模型在该模型中,预测一组来自条件输入的自适应权重以线性地组合由所有条件共享的滤波器组的基础滤波器。然后,可以根据不同的条件输入来获得动态卷积核。最后,在另一个网络的顶层应用动态内核以提供条件输出。四个任务的定性和定量实验表明,该模型取得了更好的性能相比,其他条件学习模型。鸣谢赵健获得了国家留学基金管理委员会(CSC)201503170248号奖学金的Jiashi Feng得到NUSIDS R-263-000-C67-646、ECRA R-263-000-C87-133和MoE Tier-II R-263-000- D17-112的部分支持秩1秩5P@C =0.99P@C =0.95平原0.4570.5500.050.18动态0.6880.7480.210.71动态条件网络15引用1. Amodei,D. Ananthanarayanan,S.,Anubhai河白,J.,Battenberg,E.,凯斯C Casper,J.,卡坦扎罗湾Cheng,Q.,Chen,G.,等:深度语音2:英语和普通话的端到端语音识别。In:International Conference onMachi neLearni ng.pp. 1732. Berthelot,D.,Schumm,T.,梅斯湖:开始:边界平衡生成对抗网络。arXiv预印本arXiv:1703.10717(2017)3. 贝尔蒂内托湖Henriques,J.F.,Valmadre,J.,Torr,P.,Vedaldi,A.:学习前馈一次性学习器。在:神经信息处理系统的进展pp. 5234. Bloom,P.:儿童如何学习单词的含义03 The Dog(2000)5. 布鲁姆利,J., 古永岛,LeCun,Y., Sa¨ckinger,E., 是的,R。:信号恢复功能将在工作中使用“类似于”时间序列。 In:AvancesinNeur alInpr oc e s i n g S y s i n g Pr o c e s i n g S ysi ngP r o c e s i n gSys i n g S i n gi pp.7376. 夏佩尔岛Scholkopf,B.,Zien,A.:半监督学习( chapelle, o例如,eds.;2006)[生物学评论]。IEEETRANSACTIONSONNEURALNETWRKS20(3),5427. Chatfield,K.,西蒙尼扬,K.,Vedaldi,A.,齐瑟曼,A.:中的魔鬼回归详情:深入研究卷积网络。arXiv预印本arXiv:1405.3531(2014)8. Dosovitskiy,A.,Springenberg,J.T.,Riedmiller,M.,Brox,T.:用卷积神经网络进行判别式无监督特征学习。In:Advances in NeuralInFormationProces. pp. 7669. Fan,H.,Cao,Z.,江,Y.,尹Q豆豆,C.:学习深度人脸表示。ArXiv预印本arXiv:1403.2802(2014)10. 古德费洛岛Pouget-Abadie,J. Mirza,M.,徐,B.,沃德-法利,D.,Ozair,S.,Courville,A.Bengio,Y.:生成性对抗网。In:Advances inneural in Formalin ProocessSystems.pp. 267211. Guadarrama,S.,Rodner,E.,Saenko,K. Zhang,N.,法雷尔河,Donahue,J.,达雷尔,T.:长短期记忆。03 The Dog(1997)12. Guo,Y.,中国科学院,张,L.,Hu,Y.,他,X.,高杰:MS-Celeb-1M:一个用于大规模人脸识别的数据集和基准。在:欧洲计算机视觉会议(2016)13. 他,K.,张,X.,Ren,S.,孙杰:用于图像识别的深度残差学习在:IEEE计算机视觉和模式识别会议论文集。pp. 77014. Hertz,T.希勒尔A.B. Weinshall,D.:学习用于小训练样本分类的核函数。In:Proceedings of the international conference on Machinelearng. pp.401-408ACM(2006)15. Huang,G.,刘志,Weinberger,K.Q.,van der Maaten,L.:密集连接的卷积网络。arXiv预印本arXiv:1608.06993(2016)16. Huiskes , M.J. , Lew , M.S. : mir flickr 检 索 评 估 。 ACM InternationalConference on Multimedia Information Retrieval(2008)17. Krause,E.A.,Zillich,M.,Williams,T.E.,Scheutz,M.:学习通过自然语言对话中的人机交互一次性识别(2014年)18. Krizhevsky,A.,萨茨克弗岛Hinton,G.E.:使用深度卷积神经网络的图像网分类。在:神经信息处理系统的进展。pp. 109716F. Zhao,J. Zhao,S. Yan和J. 冯19. 库马尔,A.,Irsoy,O.,Ondruska,P.,Iyyer,M.,Bradbury,J.古拉贾尼岛Zhong,V.,保卢斯河Socher,R.: 问我任何问题:动态记忆网络的自然语言处理。 In:Inter natina pp. 137820. Lake,B.M.,Salakhutdinov,R.R.,Tenenbaum,J.:通过反转进行一次性学习一个合成的因果过程。神经信息处理系统进展。pp. 252621. Lim,J.J.,Salakhutdinov,R.R.,Torralba,A.:借考迁移学习用于多类对象检测。神经信息处理系统进展。pp. 11822. Lin,T.Y.,RoyChowdhury,A. Maji,S.:细粒度视觉识别.在:IEEE国际计算机视觉会议论文集中。pp. 144923. Mehrotra,A.,Dukkipati,A.:生成对抗残差成对网络一枪学习。arXiv预印本arXiv:1703.08033(2017)24. Mirza,M.,Osindero,S.:条件生成对抗网。ArXiv预印本arXiv:1411.1784(2014)25. Movshovitz-Attias,Y.余,Q,Stumpe,M.C.,Shet,V.,Arnoud,S.,Yatziv,L.:街景店面细粒度分类的本体监督。IEEE计算机视觉和模式识别会议论文集。pp. 169326. Oord,A.v.d.,Dieleman,S.,Zen,H.西蒙尼扬,K.,Vinyals,O.,格雷夫斯,A.,卡尔奇-brenner,N.,Senior,A. Kavukcuoglu,K.:Wavenet:原始音频的生成模型。arXiv预印本arXiv:1609.03499(2016)27. 帕克希O.M.Vedaldi,A.,Zisserman,A.,等:深度人脸识别。28. Plummer , 文 学 士 , Wang , L. , 美 国 , C.M. 塞 万 提 斯 , 凯 西 多 JCHockenmaier,J.,Lazeb- nik,S.:Flickr30k实体:收集区域到短语的对应关系,以获得更丰富的信息流。InternalJour nalofComuterVison123(1),7429. Plummer1,文学士,Mallya,A.,C.M.塞万提斯,Hockenmaier,J.,拉泽布尼克,S.:综合图像-语言线索的短语定位和视觉关系检测。在:IEEE计算机视觉国际会议论文集(2017)30. Plummer1,文学士,Wang,L.,美国,C.M.塞万提斯,Caicedo,J.C.:Flickr30k实体:收集区域到短语的对应关系,以实现更丰富的图像到句子模型。在:IEEE计算机视觉国际会议论文集(2015)31. Ravi,S.,Larochelle,H.:优化作为少数学习的模型(2016)32. Rohrbach,A.,Rohrbach,M.,胡河Darrell,T.,Schiele,B.:通过重构的文本短语在图像中的基础在:欧洲计算机视觉会议33. Vinyals,O.,布伦德尔角Lillicrap,T.Wierstra,D.,等:匹配网络for one shot射击learning学习.在:神经信息处理系统的进展pp. 363034. Wang,L.,美国,李,Y.,Lazebnik,S.:获取深层结构保持图文em-床上用品IEEE计算机视觉和模式识别会议论文集(2016)35. 王,M.,Azab,M.,Kojima,N.米哈尔恰河Deng,J.:结构化匹配短语本地化在:欧洲计算机视觉会议(2016)36. Wang,Y.X.,Hebert,M.:学会学习:为回归网络建模,以实现简单的建模 。 In : EuropeanConferenceonCom up uterVison 。 pp.616-634 Springer(2016)动态条件网络1737. 吴,Y.,Schuster,M.,陈志,Le,Q.V.,Norouzi,M.,Macherey,W.Krikun,M., Cao,Y., 去吧,Q, M.C.E.R. 是的。:谷歌的新语言翻译 系 统 : 弥 合 人 类 和 机 器 翻 译 之 间 的 鸿 沟 。 arXiv 预 印 本 arXiv :1609.08144(2016)38. 扬,P.,Lai,A.,Hodosh,M.,Hockenmaier,J.:从图像描述到视觉表示:事件描述语义推理的新相似性度量Transactions of the Associationfor Computational Linguistics(2014)39. 张志,Song,Y
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功