没有合适的资源?快使用搜索试试~ 我知道了~
深度主动学习的评估框架和随机性来源分析
3943随机性是一切罪恶的根源:更可靠的深度主动学习评估Yilin Ji、Daniel Kaestner、Oliver Wirth和Christian WressneggerKASTEL安全研究实验室,卡尔斯鲁厄理工学院https://intellisec.de/research/eval-al摘要使用深度神经网络进行主动学习(AL)对实验结果的稳定性和再现性提出了重大挑战。不一致的设置仍然是矛盾结论的根本原因,在最坏的情况下,是方法评价不正确的根本原因。我们的社区正在寻找一个统一的框架,用于对深度主动学习进行详尽和公平的评估。在本文中,我们提供了这样一个框架,一个建立在系统地固定,包含和解释随机性来源的基础上的框架。我们隔离了不同的影响因素,例如神经网络初始化或硬件规格,以评估它们对学习性能的影响。然后,我们使用我们的框架来分析基本AL设置的影响,例如查询批量大小和子集选择的使用,以及不同的数据集对AL性能的影响。我们的发现使我们能够为深度主动学习的可靠评估得出具体的建议,从而帮助推动社区对结果进行更规范的评估。1. 介绍标记数据的可用性对于有效训练深度学习方法至关重要。然而,获得好的标签通常比单纯的计算能力更昂贵,因此研究界在主动学习(AL)方面投入了大量精力[29]。通过选择信息量最大的样本,可以有效地减少训练分类器所需的标记数据点的数量。最常见的是,选择初始样本集用于引导分类器(“初始集”),并批量查询样本(“查询批次”)以检索广告标签。在每次迭代中,分类器使用所有标记数据进行训练,或者基于模型权重的随机初始化(“冷启动”),或者基于上一轮学习的权重(“热启动”)。选择策略可以大致分为(a)基于不确定性的抽样[例如,九,十四,二十四,35、39、42],(b)基于多样性的抽样[例如,34,37],和(c)组合方法[例如,3、4、8、15、18]。尽管最近取得了进展,但在实践中,再现性和严格的比较评估仍然是主要挑战[19]。例如,骨干模型的“初始化集”和权重的随机初始化可以对AL策略的性能具有很大的最近的研究着手解决评估深度主动学习的困难[5,22,25],但只关注个别方面,而不是提供整体情况,如表1所示。在极少数情况下,分析甚至得出相互矛盾的结论。例如,Munjal et al.[25]表明,AL性能是不一致的不同规模的查询批次,而贝克等人。[5]得出结论,查询批量大小只有微不足道的影响。尽管我们作为一个社区已经设法识别出了这个问题,但我们仍然很难充分解决它,因为(深度)主动学习的实验设置受到许多微妙但决定性因素的影响。因此,我们必须建立一个全社会一致的评估框架,就如何控制和遏制影响因素达成共识。在本文中,我们确定了影响不同主动学习策略在三个类别中的表现的因素:(1)底层的学习设置,(2)随机性的不同来源,以及(3)执行环境的特定性。对于这些因素中的每一个,我们使用Ash等人启发的统计显著性测试系统地评估了策略整体表现的敏感性。[3,4]并探讨其背后的原因。我们讨论了控制这些影响因素的方法,作为模型训练过程的一部分最后,我们继续根据我们的框架分析主动学习的不同参数,并在严格控制的实验设置下证实对性能的影响至关重要我们想强调的是,这篇论文并不是要作为一个手指指向练习,而是试图将主动学习研究推向更严格的评估。我们的框架工作提供了迫切需要的工具,全面和可靠的比较,在这个棘手和复杂的领域。3944Optimizer优化验证集可扩展性联系我们子集采样骨干架构◆��◆�◆�◆��Aspect Beck等.[5] Lang et al.[22] Munjal等人。[25]我们的DataAugmentation超参数优化-���正规化�-�-提前停止初始种子/种子集(非)确定性补偿–热启动/冷启动代码库硬件差异查询批量大小数据集不平衡每类样本整体指标表1:社区试图系统化评估主动学习的概述全黑圆圈()表示考虑的方面,全灰圆圈()表示已纳入社区知识,空圆圈()表示部分分析。星号(*)标记的是那些专注于构造初始集合的方法而不是随机性的贡献2. 深度主动学习的可靠评估为了可靠地评估基于学习的方法,我们必须仔细准备实验装置以包含随机性。由于许多不同的影响因素,主动学习在这方面是一个特别困难的应用。在下文中,我们提出了一个限制随机性来源的框架,并证明了它们对检测性能的影响。首先,我们概述了五种示例性的主动学习方法,用于展示我们框架设计选择的影响,然后我们提出了显示统计意义的指标。在第2.1节中,我们讨论了控制底层机器学习设置的措施,然后在第2.2节中提出了包含随机性的具体行动。在第2.3节中,我们还强调了在比较评估中固定硬件和软件环境的重要性。受试方法。我们重新实现了7个AL方法(BADGE [4],BALD [13],Core-Set [34],Entropy [35],ISAL [24],LC [23]和LLOSS [42]),并使用简单的随机选择策略进行比较表2总结了它们各自的设置。所有实验均在CIFAR-10和CIFAR-100数据集上进行[20],我们遵循第2.1节至第2.3节中的建议。每个实验重复多次,我们随机选择1000个数据点作为初始集,并在查询批次中检索2000个样本,除非另有说明。图第一次,他在一个人面前,������������������������������������������������������������������������ �������图1:AL方法在CIFAR-10上的总体性能五是战略考虑。虽然标签效率[5]是一个有用的指标,但很明显,5 - 10 k的趋势并不具有表达性。此外,我们观察到BALD,BADGE,Entropy,ISAL,LLOSS和LC在20 k到30 k标记样本时达到最大精度(在整个训练数据集上训练的网络的精度因此,对于结论性的评估,比较从零到这个收敛点的性能是至关重要的。因此,在所有后续实验中,我们在x轴上显示不同批次的0至25 k所有实验都使用NVIDIA A-100 GPU进行,除了在NVIDIA RTX 3090卡上运行的用于比较不同硬件和非确定性训练的影响的测量。显著性检验。作为比较不同设置下测量结果的一种方法,我们使用不同的初始种子进行了T= 3次试验,每次试验的标签预算都不同。分析AL���������������兰德ENV学习���������3945ˆσ−n不øk=1KKT−1k=1KK1不1不㈠㈠(j)(j)联系我们然后使用双尾配对t检验对这些进行统计分析结果可视化为成对惩罚矩阵(PPM)[3,4],我们在每个批次后对两种AL方法i和dj的t值计算为t=ΔTΔμ,µ=1(a(i)-a(j))σ=�1ΣT(a(j)−a(j)−µ)其中a,. . . ,a和a,. . . ,a表示方法i和j的T试验的精度。考虑90%的置信水平,我们得到的t值区间为[ 2]。92,2。其中两个方法i和j被认为没有显著不同。如果t值高于该区间(方法i优于方法j)或低于该区间(方法j优于方法i),则我们分别在(i,j)或(j,i)处向成对惩罚矩阵的单元格添加惩罚分数1。这里,n是当前实验中标记数据数量增加时的测量点总数所得热图中的值越高,行i处的方法越强于与列j相关联的方法。因此,对应于具有最低值的列的方法执行得最好,而具有最高值的方法执行得为了组成排名,我们使用列平均值标记为。 举个例子(我们将在第2.2节中进行更详细的讨论。图2示出了用于不同模型初始化的成对惩罚矩阵。2.1. 控制基础学习设置最近的研究表明,底层学习设置的配置,即目标模型的训练设置,对评估结果有影响[5,22]。虽然这些方面不是我们论文2.1.1骨干架构特别是对于任务件主动学习方法(例如,核心集或BADGE)的基础学习者具有决定性的影响,因为从它派生的特征被用作样本选择过程的Lang等人[22]研究了主干架构的影响,并比较了使用VGG 16、ResNet 18和DenseNet 201学习的CIFAR-10上的AL方法他们得出结论:(a)ResNet18可以达到最高的准确性,(b)使用与数据集不兼容的架构(例如,DenseNet 201 forCIFAR-10)可以显著降低主动学习的性能此外,最重要的是,社区对各个主干的共同定义达成一致,例如,特定评估的ResNet18与另一个工作的ResNet18相同。在附录B中,我们详细总结了主动学习研究中的网络定义。推荐使用主干架构,社区接受的定义,最适合为手头的数据集,并始终使用它在所有实验 在图像分类领域,我们建议将ResNet 18用于CIFAR-10和CIFAR-100。2.1.2优化器的类型与 随 机 梯 度 下 降 ( SGD ) [43] 相 比 , Adam [16] 和RMSProp [12]等自适应优化器尽管收敛速度更快,但泛化能力较差[40,44]。因此,优化器的选择对于评估最终性能至关重要。Beck等人[5] Lang et al.[22]进行实验以研究使用SGD和Adam优化器的效果,得出结论,SGD在相同数据集上使用相同的主干和超参数时会导致更高的标签效率。 这个的意义 表2中提供的概述进一步强调了这一点,表2显示了优化器的各种用途。推荐控制不同方法中的优化器类型,以进行比较评估,确保产出性能差异源于主动学习方法本身。由于SGD通常更好地泛化,我们鼓励将其用于深度主动学习。2.1.3学习率除了合适的骨干架构(具有社区接受的结构)之外,还需要仔细选择训练例如,最合适的学习率取决于数据集、优化器,尤其是主干架构本身。Lang等人。[22]表明,对于具有SGD的CIFAR-10,较大的学习率是有益的,而Munjal等人。[25]甚至建议,不是预先为所有AL迭代固定超参数,而是可以使用AutoML在每一步进行调整。虽然我们明确承认超参数调优的重要性,但持续的自适应是耗时的。推荐 务实地固定学习率至0图像数据集上的SGD为1而连续超参数调整可以提高整体性能,固定的学习率不会改变AL方法从比较评价2.1.4数据增强虽然数据增强在深度学习中很流行,作为解决过度拟合的一种手段,但它对主动学习的重要性往往被忽视。Beck等人[5]表明数据扩充可以提高总体准确性和标签效率例如,BADGE [4]达到10%3946点更高的准确性对主动学习周期的结束相比,没有数据增强的结果,其中朗等人。”[22]这一点,也是他所确信的。除了分类性能的全面改善外,他们还指出,如果使用不一致,数据增强可能会影响主动学习方法与自适应超参数调整相比,数据增强可以以非常小的训练时间成本进行合并。因此,在实践中可以更容易地接受广泛使用。推荐如果在不同方法中一致地应用数据增强,则可以使用数据增强,这样它就不会影响整体排名。然而,需要一个普遍接受的基线,例如,用于图像分类的随机水平裁剪和随机裁剪。2.1.5提前停止Yoo和Kweon [42]已经确定了200个epoch作为在CIFAR-10上训练ResNet 18的实际设置,当模型完全训练但没有过度拟合时。虽然这种设置在AL社区中广泛使用[8,15,42],但使用提前停止或固定数量的时期可能会对评价产生影响,如我们在附录D中所示。2.2. 包含随机性也许在实验设计中最明显的影响因素虽然控制随机性的必要性是没有争议的[4,25],但众多的表现形式很难监督。在评估中处理随机性的一种常见方法是将每个实验重复几次,并报告平均结果及其标准差。然而,如果特定方法性能的波动大于其竞争对手的改善,则结果难以解释。Munjal等人[25]在宏观层面上对AL结果进行统计分析,参数初始化和数据增加(参见,(1)提供第一个有价值的信息。在本节中,我们将扩展这一结果,并着手解开随机性的不同来源。我们讨论了问题的不同方面,并使用BADGE [4] , BALD [13] , Core-Set [34] , Entropy[35],ISAL [24],LC [23]和LLOSS [42])和随机策略的例子分析了它们对AL性能的影响2.2.1模型与方法在没有合适的替代方案的情况下,学习设置最常见的是利用随机初始化或利用在一定程度上涉及随机性的初始化方案来自举。对于主动学习,我们有多个这样的场景,例如,(a)初始化主干模型和(b)初始化主动学习方法本身。此外,学习模型通常在查询新样本以进行标记(“冷启动”)之后重新初始化控制随机性的关键是在查询新样本时更新骨干模型不是使用新的随机初始化从头开始学习模型,而是使用前一轮的参数初始化模型(“热启动”)。因此,所有剩余的随机性都源于第一轮主动学习中的初始化,这已经显著稳定了比较测量值。对于可靠的比较评估,初始化是在多次运行中使用固定输入来平均剩余的随机性。这形成R元组的序列,(s1,. . . ,sl),包含用于初始化一次特定运行的各个因子的种子。由于主动学习是运行时昂贵的,因此在实践中重复的次数因此,至关重要的是,所有正在研究的方法都接收相同的随机种子元组,以建立实验之间的一致性。��������������������������������������������� ���������������������������������������� ���������������������������������������� ��������������������������������������������������图2:三种不同初始化集合的主动学习性能分析�������� ������������������� ����������� ��������������������������������� ������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������3947����������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������×--×--øøøøøø--øøøø更具体地说,我们使用固定的随机种子初始化T个“初始集”,并使用每个初始集来训练模型,T不同的权重初始化,导致R=T T模型和试验。此外,重要的是要注意,不同的执行环境具有不同的随机数生成器来提供随机性。例如,我们在实验中通过Python指定种子并使用PyTorch进行权重初始化来控制init集。推荐在AL批处理(“热启动”)中细化模型参数,以防止对骨干模型的权重和“初始集”进行穷举重新初始化和馈送初始化,并在多次运行中使用固定输入来平均随机性。此外,对于所有正在研究的方法,使用相同的种子。为了揭示这三种不同的影响-的影响因素,我们统计分析其对主动学习绩效的影响。到目前为止,我们应用了第2.1节和第2.2节中的所有建议,并通过八种不同的策略积极学习CIFAR-10和CIFAR-100。此外,我们确保完全确定性的计算,以进一步减少潜在的副作用。回想一下,我们基于初始化种子的T T元组(I1,M1),. . . ,(I1,MT),(I2,M1),. . . (IT,MT)。的然后使用配对t检验测量各种干扰这些元组的不同分组。初始化集合(“init sets”)的初始化。为了确定不同初始化的初始化集合的影响,我们进行如上所述的实验。我们对使用相同初始集种子(Ik,�)的模型进行t检验,以确定表现为成对惩罚矩阵的最佳策略。图2显示了T中的三个结果,团体(cf.上一页),y轴上的多个主动学习策略的准确性在顶部的x轴上的标记数据的增加量上,并且在底部对应的成对惩罚矩阵。使用第一个初始种子集(左),表示BADGE的列具有 最 低 的 平 均 惩 罚 分 数 ( 0 。 01 ) , 也 就 是 说 ,BADGE优于其他策略,但紧随其后的熵(0。02)和LC(0. 02)。对于第二个(中间)和第三个种子(右侧),BADGE的性能与熵相似。此外,BALD(0.08)落后于ISAL(0. 03)与第三种子,而光头击败ISAL与其他两个种子。准确性的进展也表明了一致的观察。有趣的是,与第一和第二种子相比,LLOSS(0。19)使用第三种子显著波动。对CIFAR-100的类似分析见附录E。因此,我们可以得出结论,种子可以改变方法排名(特别是对于紧密调用),这与Munjal等人的定性观察结果一致。[25]第20段。在模型初始化过程中。接下来,我们对使用相同种子初始化模型权重(k,M k)的模型进行t检验,在图3中,我们显示了三个T性能进展的结果及其下面相应的成对惩罚矩阵。对于第一个模型初始化(左)和第三个模型初始化(右),熵(0。01)跑赢BADGE(0.04)稍微。然而,对于第二粒种子(中间),BADGE(0。02)明显优于熵(0. 06)。对于ISAL和LLOSS,我们观察到惩罚在种子之间变化很大,这表明该方法特别容易受到模型初始化方差的我们在CIFAR-100上得到了类似的结果������������������������������������������������������������������������������������������������������������������������������������������������������������������������ ��������������������������������������������������������������� �������������������������������� ��������� �������������������������������������������� ������������ ���������������� ������������ ������������ ������������������������������������������������������������������������������������������������������������������������������������� ��� ������������������������� ��� ���������������������������� ���������������������������� ������������������������� ��� ���������������������������� �������������������������������������������� �������������������� �������������������� ���������������������������� ��������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������图3:三种不同模型初始化的主动学习性能分析。������������������������������������������������������������������������������������������3948����������������øøøøøøøø我们在附录E中给出了这些总之,我们注意到,����� ����������������������������������������������������������������������������� ��������������������������������������(a) 主动学习策略暴露出不同种子的变化程度有很大不同,(b)熵,BALD和BADGE似乎对不同的初始化更鲁棒,���� �������������������������� ����������������������� ��������������������������������������������������������������������������������������������������������������������������������������������������������������������������Core-Set、LLOSS和ISAL。��������������������������������(a) 非确定(b) 确定性���在更新模型权重的过程中(“热启动”)。虽然我们是第一个讨论使用“热启动”来稳定主动学习以进行评估的人,但事实上,它会产生与重复“冷启动”不同的性能,这在以前的工作中已经进行了研究[5,22]。在我们的实验中,我们在附录C中报告,我们在我们的环境中也证实了这一点。2.2.2计算除了通过如前一节中所讨论的设置种子值来明确的随机性之外,计算平台本身也可能在其核心处受到例如,CUDA通常,基本操作的非确定性可以通过多次运行的平均来容易地补偿。然而,对于主动学习,最近的研究成果比相关的工作有相当小的改进。因此,非确定性操作的随机方差可以影响这些结果,从而显式地使用确定性计算是必要的。虽然这会显著增加计算时间,但我们使用确定性计算执行所有先前和后续实验,以避免任何干扰。推荐多次运行实验以补偿不确定性操作。如果结果方差大于获得的改进,则严格使用确定性操作。不确定性训练的影响。再次,我们运行所有八个主动学习策略的实验,遵循我们以前的建议。对于每种策略,我们运行T试验,每个试验由一个确定性试验和三个不确定性试验组成使用锚定在种子元组(Ik,Mk)的成对t检验比较两组,定义单次运行的初始化。图 4 示出 成对 处罚 矩阵 对于非确定性训练(左)和确定性训练(右)。在附录F中,我们还提供了准确度值进展的可视化。乍一看,热图的模式明显不同。而BADGE(0. 04)和熵(0. 03)执行类似的非确定性计算,对于确定性设置,反过来,BADGE(BAD0. (26)明显落后图4:(非)确定性计算的分析。熵(0. 07)和BALD(0. 第12段)。LLOSS也从0升高。38比0 29,而Core-Set从0. 41比0 53,进一步强调确定性培训的相关性。2.3. 修复执行环境执行环境对主动学习具有潜在的定义性影响,超越了随机性,扩展到软件和硬件实现。通常情况下,实验设置的真实性质只有在提供的特定方法的开源实现(如果可用)中才会显现出来。因此,在使用任何实现之前,必须验证所有影响因素。对于比较评估,重用实现是不够的。相反,有必要调整源代码以固定关键参数,例如底层骨干架构,优化器,学习率或数据增强的使用。同时,特定硬件(例如,使用的GPU模型)会对主动学习性能产生影响不幸的是,即使使用相同的种子和确定性训练,也不能保证不同GPU的训练建议SW.配置 和 核实-主动学习工具中的主动性参数彻底的到 福斯特 未来 研究我们作为我们框架的一部分提供实现:https://intellisec.de/research/eval-al建议HW. 确保比较评估在相同的硬件上运行。虽然没有必要在相同的物理设备上执行所有实验,但例如GPU模型应该是相同的。不要混用硬件并列出硬件详细信息。不同GPU型号的兼容性。所有先前的实验都在一致的平台上进行如果不是这种情况,为了评估影响,我们在两种类型的GPU(NVIDIA A-100和NVIDIA RTX3090)上运行T试验确定性计算,并使用锚定在种子元组(Ik,Mk)处的成对t检验来比较结果,如针对先前实验所提出的。结果在图5中以成对惩罚矩阵的形式提供。�������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������� ���������������������������������������������������������������� ����������������������������������������������������3949øøøøø øøøøøø øøø再次,我们看到,BADGE,特别是,是受影响的变化,这取决于这个因素,排名第三(0。08)紧随LC(0. 01)和熵(0. 04)和前BALD(0. 10),LLOSS( 0. 28 ) 核 心 集 ( 0. 53 ) 和 随 机 ( 0. 67 ) 对 于NVIDIA A-100 GPU。对于NVIDIA RTX 3090卡,依次为BADGE(0. 26)落后于BALD(0. (12)显然。结果进一步强调了实验设置(包括硬件细节)一致性的必要性推荐在评估中考虑多个查询批量大小。尺寸的选择需要适合未标记样本的总数。3.2. 子集采样如表2所示,多种主动学习策略在评估中采用子集采样[8,15,42]。子采样对特定主动学习的影响����� ������������������������������������������������������������������������������������������������������������������������������������������������������������������������������� ����������������������������������������������������������������������������������������������������������������������(a) NVIDIA A-100����� �����������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������(b) NVIDIA RTX 3090������������������然而,战略往往是不透明的,与新提出的方法相比,子抽样的贡献有多大仍然不清楚因此,我们在我们的框架下研究这种互补措施,并在图中报告了不同主动学习方法的成对比较结果。7.请注意,随机策略,当然,是等效的,有和没有子采样,并排除在这里。图5:不同GPU型号的分析。3. 浅析主动学习基于我们在上一节中描述的评估框架,我们可以知道分析不同主动学习设置的影响。特别是,我们在3.1节中考虑了查询批量大小,在3.2节中考虑了子集采样的使用,在3.3节中考虑了不同的数据集������������������������������������������������������������������������此外,在第3.4节中,我们对五种主动学习策略进行了全面的比较评估。3.1. 查询批量大小要查询标签的样本批次的大小是主动学习的核心。因此,我们固定实验������������������������������������������������������������ ����������������������������������������������������������������������������������������������������������������������������������������� �������������������������������� ������������������������������� ������������ ���� �������� ���� ���(a) 充分����������������������������������(b) 子采样������������������如第2节所述设置,并基于三个设置分析查询批量大小的影响:一千,两千,四千。我们为每个大小计算一个成对惩罚矩阵来比较主动学习策略,并在图中报告结果六、我们观察到,AL方法的排名随查询批量大小的不同而略有不同。对于1000的批量大小,BALD同样排名第一(0。03),但在批量大小为2,000和4,000的情况下,0的情况。10至0的情况。04,以及0的情况。21至0.0 分别表示。 此外,BALD甚至与LC在第一,但是对于较大的批量尺寸而言落后。 在附录G中,我们另外提供对CIFAR-100的分析。图7:不同子集的分析。性能完整和子采样数据用实线和虚线表示我们可以观察到,子采样对不同的策略有不同的影响。对于BALD和BADGE,使用子采样的结果比不使用子采样的结果更差,而对于Core-Set,干扰(相对)更小,使得它能够缩小与其他方法的差距。这种趋势在准确性进展中也很明显,除了核心集和LLOSS之外,所有方法都显示出显著差异。而对于完整的数据集,BALD和LC处于同一水平(ø0。03)和略优于熵(100。04),����� ������������������������������ ���������� ������������������������������ �������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������� ������������������������������ �������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������(a) 1000个样本(b)2000个样本图6:不同批量的分析。(c) 4000个样本����������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������� ������������������� ���������������������������� ������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������3950øø×øøø----øøøøø øø使用 子采样 LC ( 0. 04 )明 显优于BALD (0. 第11段)。我们还在附录H中对CIFAR-100得出了类似的观察结果。因此,使用子采样可以改变AL策略的排名有趣的是,[42]提到子采样可能会减轻基于不确定性的方法的选择重叠。我们观察到,这在很大程度上取决于数据集的类型。例如,在CIFAR-100上,LC和熵在使用子采样后表现得更好,而在CIFAR-10上,观察结果相反。推荐比较没有子采样的主动学习策略,除非其中一种方法将其用作基本构建块。在这种情况下,有必要详细分析子采样的影响
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- Haskell编写的C-Minus编译器针对TM架构实现
- 水电模拟工具HydroElectric开发使用Matlab
- Vue与antd结合的后台管理系统分模块打包技术解析
- 微信小游戏开发新框架:SFramework_LayaAir
- AFO算法与GA/PSO在多式联运路径优化中的应用研究
- MapleLeaflet:Ruby中构建Leaflet.js地图的简易工具
- FontForge安装包下载指南
- 个人博客系统开发:设计、安全与管理功能解析
- SmartWiki-AmazeUI风格:自定义Markdown Wiki系统
- USB虚拟串口驱动助力刻字机高效运行
- 加拿大早期种子投资通用条款清单详解
- SSM与Layui结合的汽车租赁系统
- 探索混沌与精英引导结合的鲸鱼优化算法
- Scala教程详解:代码实例与实践操作指南
- Rails 4.0+ 资产管道集成 Handlebars.js 实例解析
- Python实现Spark计算矩阵向量的余弦相似度
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功