没有合适的资源?快使用搜索试试~ 我知道了~
+v:mala2255获取更多论文自适应特征插值生成低镜头图像戴梦雨1号,杭海滨2号,郭晓阳3号1Salesforce2亚马逊3Metamdai@salesforce.com网站,网址:haibinh@amazon.com,xiaoyangg@fb.com抽象的。 生成模型的训练,特别是生成对抗网络,在低数据设置中很容易出现分歧。为了解决这个问题,我们提出了一种新的隐式数据增强方法,该方法可以在不需要标签信息的情况下实现稳定的训练和合成高质量的样本具体来说,我们认为,作为一个度量嵌入的真实数据流形,它提供了适当的距离之间的真实数据点。然后,我们利用特征空间中的信息来开发一种完全无监督和数据驱动的增强方法。在少量镜头生成任务上的实验表明,该方法显著改善了数百个训练样本的强基线结果1介绍今天的大多数学习算法都倾向于输入大量的训练数据。然而,通常很难收集足够数量的高质量数据以供使用。此外,像人类大脑这样的智能系统不需要数百万个样本来学习有用的模式,并且是节能的。在此前提下,小数据学习一直是各种任务中的重要研究领域[40,13,24,32,16,27,38,34,5]。 在众多有前途的工作沿着这个方向,有限数量的目标生成模型。生成模型的训练,特别是生成对抗网络(GAN)[11]在低数据设置中很为了克服这个问题,人们提出了专注于GAN训练中不同方面的方法,例如数据增强[17,43],网络架构设计[26,18]和应用正则化[41,35]。数据扩充可以大幅增加可用样本的大小,并实现稳定的训练[43]。与上述针对图像域生成模型的数据增强方法不同,我们提出了一种简单而有效的方法来隐式地增强训练数据而无需监督。据我们所知,这是第一次尝试插值的多维输出功能的数据生成的数据处理器。这可能是由于使用GAN框架的应用程序通常采用具有一维可扩展输出的目标,例如vanilla GAN [11]和Wasserstein GAN [2]。最近,戴和杭[8]arXiv:2112.02450v3 [cs.CV] 2022年7+v:mala2255获取更多论文2Dai等人将度量学习视角引入具有多维输出的GAN训练器,并揭示了有趣的平坦化效应:沿着训练过程,学习的度量逐渐变得更加均匀和平坦。这一发现启发我们探索在特征空间中以无监督的方式实现增强的可能性。在本文中,我们提出了一种隐式地增加训练数据的方法,利用多输出神经元的鉴别器的平坦效应。一个直观的理解是,相对于真实数据流形的高度稀疏和非线性性质[3],低维特征空间相对稠密和平坦。因此,在特征空间中应用插值会产生一种可行的方法,增强与更高的保真度。的效果的示例显示了在使用StyleGAN2架构进行训练期间的特征插值在图1中两次训练都使用了自适应图像增强[17],而特征插值显著稳定了训练。 这项工作的新颖之处在于Fig. 1. 在Shells数据集上训练期间的FID(↓)。红色:无特征插值;绿色:有特征插值。这里的×批量。概括如下:1.本文提出了一种在并行输出的多维特征空间中进行隐式数据扩充的方法据我们所知,这是无监督图像生成的第一次尝试二、我们开发了一种数据驱动的增强方法,其标准基于训练过程中特征空间的底层结构。3.少数拍摄图像生成实验的结果表明,在几个基准数据集显着改善。2相关工作2.1低激发数据生成最近的工作有助于从不同的角度低拍数据生成Karras等人[17]用自适应概率对图像进行增强,+v:mala2255获取更多论文自适应特征插值3通过使用验证集验证。Zhao等人。[43]提出了DiffAugment,它在真实和生成的图像上应用随机可微增强。上述方法显着提高了图像域的可用训练数据量,从而显着防止过拟合。 Tseng等[35]设计了一个正则化损失项,通过跟踪训练过程中预测的移动平均值来对预测进行正则化损失项。 Zhang等人[41]提出了GANs的一致性正则化,其参数是变换后样本的不变性。 Liu等人[26]提出了一个SLE模块和一个编码器-解码器重构正则化,以提高低数据训练设置中的训练稳定性。至于其他方向,可以参考[28,15,14,23]。与上述技术不同的是,我们提出的方法是在多维特征空间中的并行输出。它与图像域中的数据增强技术不冲突,并且独立于网络架构。2.2GAN中的几何解释本文的核心思想来自于文献[8]中观察到的判别器的有趣的平坦化效应。特别地,在他们的论文[8]中,Dai和Hang将该流形解释为度量生成器,该度量生成器学习真实数据流形的某些内在度量在本文中,我们观察到类似的行为在几何GAN[25]框架铰链损失。具体地说,几何GAN使用SVM分离超平面来最大化真/假特征向量之间的裕度,并使用铰链损失进行分类,这是简单而快速的。类似的影响也提到,[30]Shao等人的研究表明,通过深度生成模型学习的流形接近于零曲率。2.3特征空间内插与混合在嵌入空间中组合特征被证明有助于图像检索[7,6,36,1]。最近,Ko et al. [21]提出了嵌入扩展,它利用嵌入的组合并执行硬否定挖掘来学习信息特征表示。DeVries和Taylor[10]声称,由于特征空间中的流形展开,对特征空间的简单变换会导致合理的合成数据。Verma等人。[37]介绍了Manifold Mixup,它在隐藏的特征向量之间实现插值,以在多个表示级别上获得更平滑的决策边界。此外,在[37]中,作者还指出了流形混淆在学习表征中的扁平化效应。数据增强技术的另一个分支利用学习任务中的Zhang等人。[42]建议数据样本的线性插值应该导致其相关标签的线性插值。Kim等人[20]应用了批量混合,并制定了一批混合数据的最佳结构。沿着轨道的其他工程也显示出各种改进+v:mala2255获取更多论文4 Dai et al.[2019 - 03 - 19]阅读全文尽管取得了令人鼓舞的进展,但应用这些方法需要增加训练数据的相关标签,这不适合本文的用例。与上述主要用于监督判别任务的增广方法不同,本文提出了一种基于数据驱动特征插值的隐式增广方法,该方法适用于无监督的生成任务3方法在这一节中,我们将详细介绍本文的主要思想和所提出的用于低镜头生成的隐式增强算法。图二. 实际数据的直接插值可能返回远离实际数据流形的点;利用平坦化效应,我们提出了在特征空间中的插值,其返回特征y作为使用一些假想的“真实”样本x的近似。3.1鉴别器的平坦化效应在本文中,我们将y表示为有效特征向量,当且仅当。 y=gw(x)对于来自真实数据流形的一些数据x,给定一些深度度量学习网络gw。一个简单的例子如图2所示。我们感兴趣的一个问题是:一组有效特征向量的插值距离某个单独的有效特征向量有多远?在下文中,我们将讨论这个问题,一个GAN框架,使用实验结果的观察我们采用[26]中的默认训练设置和包含64个不同图像的Shells数据集[26]使用铰链损失作为GAN目标,因此该算法具有度量学习效果并配备多维输出。铰链目标可以用公式表示为:LG=Ez<$N[−D(G(z))](1)LD=ExPreal[max(0, 1−D(x))]+ExPfake[max(0,1+D(x))],(2)其中D(x)也称为gw(x).我们利用[8,30]中介绍的以下方法来检测学习度量在训练过程中的变化:(i)对于每次迭代i,采样一些+v:mala2255获取更多论文××Ki=1πi=1且0≤πi≤ 1自适应特征插值5真实数据点以形成有限度量空间Xi;(ii)在学习的度量下构造Xi的归一化距离矩阵;(iii)将多维缩放(MDS)应用于归一化距离矩阵以获得递减(有限)特征值序列Ci={λ(i),λ(i),· · ·,λ(i)},其中b是采样点。12b图三. 每条曲线表示在Shells数据集上训练期间根据学习的度量使用来自64个真实图像的64 × 64归一化距离矩阵的多维缩放(MDS)获得的前20个特征值。 我们绘制迭代0, 1000,···, 9000的曲线。现在我们观察特征值,看看特征向量之间的欧氏距离在训练过程中如何演变。如图3所示,随着训练的进行,特征值的曲线变得越来越接近x轴。在迭代9000处,只有前几个特征值是非平凡的,这意味着有效特征向量被压缩在低维超平面上。与输入数据维数m= 1024 ×1024 3相比,有效特征子空间具有明显的平坦性和均匀性。该实验结果与[8]中的结果一致,尽管所使用的训练设置非常不同。 如何使用特征值曲线推断数据集形状的示例如图4所示。上述观察结果为本节开头的问题提供了有趣的事实:如果一组有效的特征向量y1,y···,yk接近于each很可能是一个有效的特征向量。接下来,我们将探索这种扁平化效应如何帮助数据增强。3.2隐式数据扩充给定某个神经网络gw、损失函数L和训练样本xi,扩充数据的一种直接方法是生成合成数据样本x并使用它其他,则任何插值点y=πi yiwith+v:mala2255获取更多论文i=1i=1训练样本x1,x2,···,xk。对于任何插值y=KKi=1 πi yi,0≤πi≤1和πk<$L(gw(x))<$$>π<$L(gw(xi)),W埃−πiW埃我 . 时间复杂度= O(max)i=1 πi=1,基于平坦化效应,很可能存在Ki=1我6 Dai et al.(a)(b)第(1)款见图4。(a)蓝点位于椭球上,红点位于平圆盘上;(b)每条曲线表示具有相同颜色的对应点集的特征值曲线。作为训练数据。一个合成数据x所能做的所有努力都以梯度的计算结束:(x)的值。埃夫G1v envalid特征向量y1,y2,...,yk,其中,虚实数据点x,使得y=gw(x)。尽管这并不明显为了显式地构造x,我们能够估计它对梯度的贡献隐式地通过取x1,· · ·,xk的贡献的平均值:埃夫当y1,···,yk足够接近时。伊鲁夫i=1现将上述主张概述如下:引理1. 给定某个神经网络gw:Rm → Rn和某个可微的损失函数L:Rn → R。 固定y = gw(x)。那么对于一组邻近的点,yi=gw(xi),i=1,· · ·,k使得y=<$kπi yi,<$k πi=1, 0≤πi≤ 1,我们有:. L(g(x)).+v:mala2255获取更多论文Σj=1<$L(gw(x))−<$π<$L(gw(xi))J埃夫我J我埃夫L(y)πW我−π L(y)W我W我(L(y)−L(y))埃夫我我我我J我自适应特征插值7证据在下文中,我们使用j来表示第j个坐标的偏导数。K我的世界i=1n(j)kn(十)=L(y)gw(x)−πL(y)gw(xi)j=1i=1j=1Σ∂g(j)(x)Σ∂g(j)(x)i、jΣ=i、j吉·吉 ·鲁夫(j)㈩伊日什瓦夫i、j(x)O(max)=O(max)总之,如果它们的嵌入特征彼此接近,则可以在执行梯度下降时通过使用由某组训练样本引起的梯度的平均值来更新网络参数在下面的章节中,我们将详细介绍所提出的数据驱动增强算法。3.3最近邻插值将数据点(图像)xi、其特征向量yi=gw(xi)以及k个最近邻h(i包括其自身f)表示为yij,j=1,···,k。我们使用yi的k个最近邻定义一个插值特征,Kyi=πijyij(3)j=1其中,kπ ij= 1且0 ≤ π ij≤ 1。对于每个yi,等式(3)中的πij遵循狄利克雷分布:πij<$Dir(αij),i=1, 2,···,k(4)可以确定浓度参数αij来控制最近邻的权重。例如,当对于所有js,αij= 1时,权重均匀分布。在这里,我们利用特征之间的距离和流形的几何形状来通知参数。详细过程描述如下。F或第i个特征yi及其最近邻hb或yij,j=1,2,···,k:αij=T(M(yi,yij))t,(5)=π我 埃夫J+v:mala2255获取更多论文1+x8 Dai et al.其 中 T ( x ) : R→R+ 是 单 调 递 减 函 数 。 ( R∈ ={x∈R , x>=0} ,R+={x∈R,x>0})。 M(yi,yi j)是yi和yij之间的距离,并且t>0用于控制迭代的速度。 对于T(x)有很多选择,例如,T(x)= 1。直觉上,对于更近的邻居,应该有更大的权重,如图5所示。就t而言,较小的t给出更均匀/平滑的插值,而较大的t则倾向于在较近的邻居上具有更多的权重为了简单起见,我们将t= 1设置为默认选择。图五、 使用狄利克雷分布插值特征的说明。 yij,j = 1,2,3是y i的前3个最近邻。 yi=πi1yi1+πi3yi2+πi3yi3是中间点,其中πij从具有浓度参数αij的Dirichlet分布中采样,与距离M(yi,yij)成比例。3.4数据驱动的自适应增强为了便于使用特征插值,我们考虑利用训练过程中的平坦效应来决定增强的积极性在这种背景下,攻击性主要可以通过(1)最近邻插值的选择,(2)Dirichlet分布的形状和(3)使用的增强特征的比例来解释 为了解决(1),当嵌入空间更平坦时,可以使用更大的k来对内插点进行采样。反之,k值过小会导致插值后的特征只覆盖一小部分特征空间,增强效果有限,在恢复真实数据流形时会产生偏差。其中一个重要的问题是如何反映数据流形的“平坦”程度。 如前所述,这样的信息可以通过特征之间的成对距离的(多维缩放)MDS来获得[30,8]。平坦性可以通过MDS的大特征值的数量来反映,其中更少数量的大特征值指示近似更小的空间维度。经验上,我们统计一批b中大于最大特征值λ max的10%的特征值{λi}的个数作为有效维数,并使用k= I(λ i<0. 1λmax)作为近邻的数量。+v:mala2255获取更多论文−自适应特征插值9狄利克雷分布的形状由M控制,M是从数据本身得到的,如3.3节所讨论的我们还涉及增强概率p,它决定了用于训练的插值点的比例。p=0表示没有增强,p=1是指所有特征都来自插值。类似地,我们让p=(k1)/b,这引入了具有更少有效维度的更积极的增强。在实践中,人们也可以找到其他方法来定义p,或者为了简单起见使用固定的ps。在实验中,我们使用合理选择的p(例如p=0)进行观察。(6)稳定训练。我们将在后面的4.2节讨论这些参数的行为。整个自适应特征插值(AFI)算法总结在算法1中。算法1自适应特征插值。输入:从真实数据中提取的一批特征{yi};输出:增强的一批特征{yi};1:从{yi}计算距离矩阵M;2:求解M的MDS并返回其特征值{λi}; 3:从M和{λi}计算{α},k,p;4:F或eachhi,使用等式(4)采样插值的特征yi,其中k接近邻居;5:对于每个i,使用等式(3)设置yi= y i,概率为p,否则yi= yi。4实验在本节中,我们将探索所提出的方法的行为,并提供多个数据集上的评估结果。4.1数据集和实施细节我们在几个基准数据集或其子集上进行了无条件生成实验,包括Shells,Art,Anime Face,Pokemon [26],Cat,Dog [31],Obama,Grumpy cat [43]和CIFAR-10 [22]。我们使用各种指标进行评估,包括Frechet Inception Distance(FID)[12],Kernel Inception Distance(KID)[4]和Precision and Recall(PR)[29]。默认情况下,我们根据真实数据生成了50K样本进行评估。较低的FID,KID评分和较高的PR表明更好的结果。我们采用了StyleGAN 2[17]和FastGAN[26]网络架构,并使用他们的论文中提供的一致参数设置进行实验。为了便于多维神经元输出的实验,将[17]中神经元的输出神经元数量n设置为20,并将[26]中神经元的输出对数重新整形以适应多维设置。对从真实图像和伪图像中提取的特征进行特征插值,这在实验中根据经验证明是有益实验使用PyTorch框架在Tesla V100 GPU上进行。+v:mala2255获取更多论文10Dai等人4.2消融研究在本节中,我们研究了所提出的特征插值(FI)的行为,以及使用直接图像插值(II)进行比较的实验。我们首先使用StyleGAN2架构研究了简单情况下p的影响[17,18]。在每个设置中,我们在p = 0的训练期间记录FID。三,零。六,零。9如图6所示。在第二节中,我们对图像进行了直接插值[42]第42话对于FI会话,我们没有使用任何图像增强技术。可以看出,与FI实验相比,II会话在所有情况下都更早地出现分歧。第二阶段,p= 0。与p = 0时相比,p = 9时的积极影响较小。6,这表明在这种情况下图像插值不支持大的ps。相比之下,FI实验即使在p = 0的情况下也具有更稳定的训练会话。9.在这种情况下,使用动态p获得了最佳结果。这些结果表明,金融机构可能更好地享受“不泄漏”的[17]在训练中。在不同数据集上的实验中,我们发现使用少量原始有效特征是稳定训练的必要正则化注意,对于II,应用动态ks并不明显。一个原因是使用像素之间的欧几里德距离来寻找近邻似乎毫无价值。此外,对于固定的真实图像,不能基于平坦化效应实现动态增强。见图6。在Shells数据集上使用图像插值(II)和特征插值(FI)与StyleGAN2架构进行训练期间的FID评估。接下来,我们在均匀(t= 0)和偏斜(t= 1)分布的设置上进行实验,以研究Dirichlet分布在特征插值上的行为。 在每个实验中,我们使用批量大小8,并在固定p = 0的情况下训练50K次迭代。9使用FastGAN架构。在这种情况下,我们使用DiffAug-+v:mala2255获取更多论文自适应特征插值11图像增强和使用1K生成的图像进行快速评估。在每个设置中,我们在表1中报告了训练期间的最佳FID及其相应的迭代。总的来说,我们注意到,具有倾斜分布的FID-K12345678均匀FID165.72 140.89 148.95 141.82 145.58 138.54 136.13 144.90(t=0)Iter(K)10 30 20 40 35 45 35 20偏斜FID165.72 130.98 136.33 141.51 131.54 137.62(t=1)Iter(K)10 35 50 40 50 35 35 45表1.使用FastGAN架构对Shells数据集上生成的样本进行FID评价,k s和p= 0固定。9.一般来说,分布优于均匀分布。直觉上,由于偏态分布,内插特征可能更接近原始特征,因此可能导致训练中的较小偏差。一个有趣的问题是数据集N的大小与训练中k值之间的关系。我们在CIFAR-10实验中记录了ks高达500 K的训练图像,在Art实验中记录了200K的训练图像,每个GPU上的有效批量大小为8,并针对不同的Ns计算平均k。表2还示出CIFAR-10艺术图像100 500 5000 50000 100 1000p=04.39 4.02 2.342.14 3.41 2.43AFI4.62 3.86 2.182.26 3.53 2.59表2. 在每个GPU上,在不同量的训练数据N下训练期间的平均k在每个设置下,总体平均k随着N的增加而减小,这对应于使用更多真实训练数据的较少增强。如[17]所述,这种动态机制降低了引入更大N的更有偏增强的风险,其中作者指出了一个有趣的现象,即数据增强的积极影响随着真实训练数据大小的增加而减少此外,表2中的结果还表明,更多的训练数据扩大了数据流形的有效维数在这里,我们还在图7中展示了在CIFAR-10上训练期间的平均k,这提供了对k所反映的平坦性行为的一些见解。我们注意到,较小的Ns表明数据流形的有效维数更少,增强更强特别是对于小Ns(N= 100和500),除了训练阶段的开始,在训练期间使用增强变得越来越积极。在初始阶段,平均k在到达拐点之前波动甚至减小对于较大的Ns,该训练阶段的较长时间段可能表明,该训练器需要更多的训练来学习有意义的特征表示。+v:mala2255获取更多论文××12 Dai等人。图第七章 在CIFAR-10上训练期间的平均k,不同的N在每个GPU上使用有效批量大小8。为了研究特征插值对其他数据集的影响,我们使用AFI进行了实验,而没有应用基于变换的图像增强,如[17,43]。 我们还使用类似于输入和流形混合的插值方法[42,37]呈现结果,除了在无监督任务中没有标签可用于插值。在每个设置中,我们只使用相应的方法增强真实和虚假图像(或特征)分别在图像和特征上实现了使用[42,37]的插值表3显示AFI显著改善了所有数据集的基线结果。相比之下,直接应用混合风格的特征插值会导致最差的结果。贝壳动漫艺术口袋妖怪猫狗脾气暴躁的猫奥巴马型号GAN2 229.83 197.01 145.08 194.93 78.32225.63 43.88 104.64+AFI 48.71 85.97 81.08 131.86 57.47143.60 37.46表3. 没有基于转换的增强的实验的FID评价。4.3结果在下文中,我们提供了各种数据集的最终评估结果10241024和256256实验的FID评价见表4。在这些实验中,我们结合了图像增强技术,+输入135.66 91.99 86.51174.9160.35 118.7926.9836.65+特征319.80 308.16 117.35376.83236.99 270.66118.80160.57+v:mala2255获取更多论文×自适应特征插值13数据集炮弹动漫艺术Pokemon狗猫GrumpyCat奥巴马图像尺寸1024102410241024256256256256数量的图像641201000800389160100100FastGAN[26]152.53 60.04 48.4457.0551.24 39.3027.5940.52AFI124.80 55.35 43.0950.4750.89 35.1825.0236.43StyleGAN2[17] 123.66 60.51 72.3675.3959.07 39.7831.5844.04铰链丢失,n=20 101.72 55.67 58.4255.3256.43 40.2428.6940.18+AFI44.7949.14 35.2622.0331.99表4.使用FastGAN和StyleGAN2架构对1024 × 1024和256 × 256实验进行FID评估。其中[17]应用自适应增强,[26]采用DiffAugment。表4显示使用特征插值进一步改善了强基线的结果使用StyleGAN2架构,我们观察到跨数据集的更显着收益。请注意,简单地使用n = 20而不使用FI,与[17]的结果相比,已经可以看到改进。这一行为与文献[9]的理论分析和实验结果相一致,即多维训练输出在GAN训练中具有优势。我们在表5和表6中进一步展示了使用StyleGAN2架构的KID和查准率的评估,以供参考。图8中显示了随机生成的1024 1024图像的示例。如图所示,来自使用FI的实验的样品具有一贯更好的质量。我们还使用[17]中的默认设置作为基线,使用少量部分数据使用特征插值将FID从42.80提高到27.62,只有0.2%的训练数据(100张图像),从19.69提高到13.50,训练数据为1%。贝壳动漫艺术口袋妖怪孩子PR孩子PR孩子PR孩子PR[17个]20(0.789,0.085)15(0.966,0.933)26(0.574,0.823)28(0.621,0.727)+ AFI2(0.852,0.132)4(0.984,0.974)9(0.887,0.965)12 (0.948,0.922)表5. 1024× 1024次实验的KID(x103)(↓)和精确-召回(PR)(↑)评价。狗猫脾气暴躁的猫奥巴马孩子PR孩子PR孩子PR孩子PR[17个]18(0.874,0.948)6(0.974,0.951)5(0.845,0.794)13(0.930,0.860)+ AFI 14(0.922,0.932)4(0.976,0.950)3(0.973,0.953)10(0.979,0.970)表6.256 × 256实验的KID(x10 3)和精确-召回(PR)评价。+v:mala2255获取更多论文14 Dai等人。见图8。在不同数据集上随机生成1024 × 1024个样本。从上到下:贝壳,艺术,口袋妖怪和动漫。左:StyleGAN 2-ADA[17];右:使用自适应特征插值。5讨论在本文中,我们提出了一种自适应增强方法的低拍摄数据生成。该方法利用特征空间在训练过程中的平坦化效应,在训练输出的多维特征空间中起作用,而不是产生新的训练图像实验表明,该方法改善了低数据区强基线的结果。+v:mala2255获取更多论文自适应特征插值15引用1. 阿兰·德·杰·洛维奇,Zisserman,A.:每个人都应该知道三件事来改进对象检索。2012年IEEE计算机视觉和模式识别会议pp. 2911-2918. IEEE(2012年)2. Arjovsky,M.,Chintala,S.,博图湖:Wasserstein生成对抗网络第34届机器学习国际会议论文集。机器学习研究进展,卷。70页。214-223 PMLR(2017年8月6日3. 巴莱斯特里罗河Pesenti,J.,LeCun,Y.:高维学习总是外推(2021)4. 我不在乎,M.,萨瑟兰,DJ, 阿尔贝 尔 ,M., Gretto n,A.: 这是MMDGAN的系统。在:国际会议学习代表(2018)5. Choe,J.,公园,S.,金,K.,Hyun Park,J.,金,D.,Shim,H.:使用生 成对 抗网 络进 行低拍 摄学 习在 :IEEE 计算 机视 觉国 际会 议(ICCV)研讨会论文集(2017年10月)6. Chum,O.,Mikulik,A.,Perdoch,M.,Matas,J.:全面召回ii:重新访问查询扩展。见:CVPR 2011。pp. 889-896. IEEE(2011年)7. Chum,O.,Philbin,J.,Sivic,J.,Isard,M.,Zisserman,A.:TotalRecall : Automatic Query Expansion with a Generative Feature Model forObject Retrieval.2007年IEEE第11届计算机视觉国际会议pp. 一比八 IEEE(2007年)8. Dai,M.,Hang,H.:通过深度度量学习进行流形匹配,用于生成建模。IEEE/CVF计算机视觉国际会议(ICCV)论文集。pp. 65879. Dai,M.,亨,H.,Srivastava,A.:重新思考生成对抗网络的多维输出(2021)10. DeVries,T.,泰勒,G.W.:特征空间中的数据集扩充arXiv预印本arXiv:1702.05538(2017)11. 古 德 费 洛 岛 , Pouget-Abadie , J. , 米 尔 扎 , M. , Xu , B. , Warde-Farley,D.,Ozair,S.,Courville,A.,Bengio,Y.:生成对抗网。在:神经信息处理系统的进展第27卷(2014年)12. Heusel,M.,Ramsauer,H.,Unterthiner,T.,Nessler,B.,Hochreiter,S.:用双时标更新规则训练的Gans收敛于局部nash均衡。在:神经信息处理系统的进展。第30卷(2017年)13. Hong,J.,Fang,P.,李伟,张,T.,西蒙,C.,Harandi,M.,彼得森,L.:加强对少数镜头学习和超越的关注。IEEE/CVF计算机视觉和模式识别会议(CVPR)。pp. 91314. 洪,Y.,牛湖,张杰,梁杰,Zhang,L.:Deltagan:使用特定于样本的delta实现多样化的少数拍摄图像生成。arXiv预印本arXiv:2009.08753(2020)15. 洪,Y.,牛湖,张杰,Zhao,W.,傅,C.,Zhang,L.:F2gan:用于生成少量图像的融合和填充gan。第28届ACM多媒体国际会议论文集。pp. 253516. 黄,K.,Geng,J.,Jiang,W.,邓,X.Xu,Z.:半监督少样本学习的伪损失置信度IEEE/CVF计算机视觉国际会议(ICCV)论文集。pp. 867117. Karras,T.,Aittala,M.,Hellsten,J.,Laine,S.,Lehtinen,J.,Aila,T.:用有限的数据训练生成对抗网络。在:Proc. NeurIPS(2020)+v:mala2255获取更多论文16Dai等人18. Karras,T.,Laine,S.,Aittala,M.,Hellsten,J.,Lehtinen,J.,Aila,T.:分析和改进StyleGAN的图像质量。在:Proc. CVPR(2020)19. Kim,J.H.,周,W.,Song,H.O.:拼图组合:利用显着性和局部统计学的最佳混合。机器学习国际会议(ICML)(2020)20. 金,J.,周,W.,郑,H,Song,H.O.:Co-mixup:具有超模块多样性的显著性引导的联合在:学习代表国际会议(2021)21. Ko,B.,Gu,G.:嵌入扩展:在深度度量学习的嵌入空间中进行增强在:IEEE计算机视觉和模式识别会议论文集(2020)22. 克里热夫斯基,A.,Nair,V.,Hinton,G.:加拿大高级研究所23. 李,Y.,张,R.卢,J,Shechtman,E.:具有弹性权重合并的少拍摄图像生成。arXiv预印本arXiv:2012.02780(2020)24. 李,Y.,Zhu,H.,郑,Y.,王伟,Teo,C.S.,Xiang,C.,Vadakkepat,P.,Lee,T.H.:通过分类细化和干扰物再处理的少镜头目标检测。IEEE/CVF计算机视觉和模式识别会议(CVPR)。pp. 1539525. Lim,J.H.,Ye,J.C.:04 The Fall(2017)26. 刘,B.,Zhu,Y.,中国科学院,宋,K.,Elgammal,A.:迈向更快和更稳定的{gan}训练,用于高保真少拍图像合成。在:学习代表国际会议(2021)27. Liu,S.,Wang,Y.:在线自我升华的少次学习在:IEEE/CVF计算机视觉国际会议(ICCV)研讨会论文集pp.公元1067年28. 奥杰哈大学,李,Y.,吕,C.,埃夫罗斯,匿名律师,Lee,Y.J.,Shechtman,E.,Zhang,R.:通过跨域对应生成少拍图像。在:CVPR(2021)29. 他是圣战者, Bac hem,O., L uc ic,M.,Bousquet ,O., Gell y,S.:通过 精 确 度 和 召 回 率 评 估 生 成 模 型 。 在 : 神 经 信 息 处 理 系 统 的 进 展(NeurIPS)(2018)30. Shao,H.,Kumar,A.,Thomas Fletcher,P.:深层生成模型的黎曼几何。在:IEEE计算机视觉和模式识别会议(CVPR)研讨会论文集(2018年6月)31. 是的Z Zhu,S.C.:利用信息投影学习混合图像模板。IEEE Transactions onPattern Analysis and Machine Intelligence34,1354-1367(2012)32. Stojanov,S.,Thai,A.,J. M. Bogg:使用形状分类:低杆学习-带有明显的形状偏差。IEEE/CVF计算机视觉和模式识别会议(CVPR)。pp.179833. Thulasidasan,S.,Chennupati,G.,Bilmes,J.A.,巴塔查里亚,T.,Michalak,S.:关于混合训练:改进深度神经网络的校准和预测不确定性。在:神经信息处理系统的进展卷32岁Curran Associates,Inc. (2019年)34. 田,Y.,王玉,Krishnan,D.,Tenenbaum,J.B.,伊索拉,P.:重新思考少镜头图像分类:一个好的嵌入就是你所需要的ArXivabs/2003.11539(2020)35. 曾惠英,江,L.刘,C.,杨,M.H.,Yang,W.:在有限数据下调节生成对抗网络。在:CVPR(2021)+v:mala2255获取更多论文自适应特征插值1736. Turcot,P.,Lowe,D.G.:用更少的特征更好地匹配:在大型数据库识别问题中选择在:2009年IEEE第12届计算机视觉研讨会,ICCV研讨会。pp.2109-2116. IEEE(2009年)37. Verma,V.,Lamb,A.,贝克汉姆,C.,Najalan,A.,米利亚卡斯岛Lopez-Paz,D.,Ben- gio,Y.:Manifold mixup:通过插入隐藏状态来更好地表示上一篇:机器学习国际会议pp. 6438-6447 PMLR(2019)38. Yao,H.,Wu,X.,中国农业科学院,陶,Z.,李,Y.,丁,B.,Li,R.,Li,Z.:自动化关系元学习。在:学习代表国际会议(2020)39. Yun , S. , Han, D. , 哦 , S.J. , Chun , S. , Choe , J. , Yoo , Y. :Cutmix:正则化策略,用于训练具有本地化特征的强分类器在:IEEE/CVF计算机视觉国际会议(ICCV)论文集(2019年10月)40. 张,C.,宋,N.,林,G.,郑宇,潘,P.,Xu,Y.:使用不断进化的分类器进行少量增量学习。IEEE/CVF计算机视觉和模式识别会议(CVPR)。pp. 1245541. 张洪,张志,Odena,A.,Lee,H.:生成对抗网络的一致性正则化。在:学习代表国际会议(2020)42. 张洪,西塞,M.,Dauphin,Y.N.,洛佩斯-帕斯,D.:mixup:超越经验风险 最 小 化 。 学 习 表 征 国 际 会 议 ( 2018 ) , https://openreview.net/forum?id=r1Ddp1-Rb43. 赵,S.,刘志,Lin,J.,Zhu,J.Y.,Han,S.:微分增强用于数据高效的gan训练。在:神经信息处理系统会议(NeurIPS)(2020)
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功