没有合适的资源?快使用搜索试试~ 我知道了~
19077领域泛化算法的失效模式Tigran Galstyan1,3,Hrayr Harutyunyan2,Hrant Khachatrian1,4,Greg Ver Steeg2,AramGalstyan21YerevaNN,2USC Information Sciences Institute,3Russian-Armenian University,4Yerevan State University摘要领域泛化算法使用来自多个领域的训练数据来学习模型,这些模型可以很好地泛化到未知领域。虽然最近提出的基准测试表明,大多数现有的算法不优于简单的基线,建立的评估方法未能暴露的各种因素的影响,导致性能不佳。在本文中,我们提出了一个评估框架域泛化算法,允许分解的错误组件捕捉distinct方面的推广。受基于域不变表示学习思想的算法流行的启发,我们扩展了评估框架,以捕获实现不变性的各种类型的失败。我们发现,泛化误差的最大贡献者因方法、数据集、正则化强度甚至训练长度而异。我们观察到与学习域不变表示的策略相关的两个问题。在有色MNIST上,大多数域泛化算法失败,因为它们只在训练域上达到域不变性在Camelyon-17上,域不变性降低了不可见域上表示的质量。我们hypothesize,而不是专注于调整分类器上的丰富的表示可以是一个有前途的方向。1. 介绍在过去的十年中,机器学习研究主要集中在学习者从未知分布中观察训练数据,并在从相同分布中采样的测试数据上进行评估。虽然现代深度学习方法在这种情况下表现出色,但当测试数据来自不同的分布时,它们的表现会明显更差[32,41]。这些方法可能依赖于数据集偏差来表现良好,当这些偏差被消除时就会失败[4,10]。在域泛化(DG)任务中制定了超越训练分布的泛化目标,其中学习者观察来自多个域的训练数据,并在看不见的域上进行评估。自然,假设训练和测试域具有一些不变量属性或机制,允许从一个泛化到另一个。在高层次上,所有领域泛化方法都试图捕捉这些不变性,但方法不同。实现域泛化的一些可能方向是:学习域不变表示[9,24],学习类条件域不变表示[ 9,24 ],表示[8,21,45],使用鲁棒损失函数[36],学习不变因果预测器[3],以及使用Meta学习[20]。上面列出的大多数方法在玩具领域泛化实例上的性能优于直接的经 验 风 险 最 小 化 ( ERM ) 方 法 ( 例 如 , 彩 色MNIST)。然而,Gulrajani和Lopez-Paz [14]证明,当在现实DG实例上进行评估时,这些方法无法显著优于ERM为了改进领域泛化方法或提出新的领域泛化方法,我们需要了解领域泛化方法失败的原因和原因。这是本文的主要目的。我们的贡献有三方面。首先,我们描述了领域泛化方法的一般故障模式我们开发的工具,衡量这些故障中的每一个在一个给定的模型的总误差受基于不变表示学习的方法的流行的启发,我们还描述了与实现域不变性相关的故障模式。其次,我们确定了两种常见的泛化失败模式。在第一种模式中,许多算法在训练域上实现了域不变表示第二种模式是当域不变性在所有域中增加时,但这种增加与未见过域的表示的退化相一致第三,我们表明,通过固定的表示,有可能隔离分类器的非不变故障,并显着提高泛化,即使是最基本的算法。这些发现还证实了域不变表示对于成功的域泛化既不是必要的,也不是充分的。19078X ×YXYX →YX Y{}我我JTV{\displaystyle\mathbb {y^,y}}x的作用。 设R:RC× Y →R是一个损失函数,}我分类头y=f(z)∈CR,参数sw我我i=1我i=1我i=1我1N1公司简介JD T V2. 相关工作超越训练分布的泛化能力是机器学习的关键目标Torralba和Efros [41]表明,常见的图像分类数据集具有显著的差异,因为在一个数据集上训练的方法通常无法很好地推广到其他数据集。事实上,在一个单一的域上学习容易受到数据集偏差和虚假相关性的影响,这一点已经在许多情况下得到了证实[2,4,6,10,32,41]。一 些 设 置 关 注 训 练 分 布 之 外 的 泛 化 。 分 布 外(OOD)和稳健性文献关注的是在检验时存在分布偏移的情况[30,39],包括但不限于标签偏移[22,34]、协变量偏移[12,38]、条件偏移[ 22,38 ]、变化[44],视觉失真[7,16],风格和其他变化[15]。域泛化和域自适应的更一般设置假设来自多个域的示例可用于训练,不同之处在于,在域自适应中,来自测试域的示例(标记或未标记)的集合可用于自适应[43]。在本文中,我们专注于域泛化问题(也称为零激发域自适应[28]),等人[33]研究了理论设置中的故障模式。Nagarajan等人[25]解释了ERM在非常简单的域外泛化任务中失败的机制。与这些工作相反,我们的分析和下面提出的技术适用于任何领域泛化算法。3. 问题设置和符号考虑输入空间和输出空间。上的联合概率分布p(x,y)称为域,并定义了预测任务。在域泛化任务中,我们假设有一个域族D,它们以某种方式彼此相关,并对应于类似的预测任务。学习器观察来自n 1个域的训练数据,p1(x,y),. - 是的- 是的 ,p1(x,y). 我们的目标是学习一个预测因子f:,它可以从D推广到看不见的域。请注意,与域适应问题相反,这里的学习器在推理时不能进行任何适应。在本文中,我们专注于分类任务,其中= Rp和=1、2、. . .、C.我们假设,除了n1个训练域之外,我们还有n2个验证域p2(x,y),. -是的- 是的 ,p2(x,y),和n3测试域,由于其通用性和与PRAC-3更好的对应性,1N2p(x,y),. - 是的- 是的 ,p3(x,y). 我们假设没有标签标准设置。然而,大多数提出的技术1n31 1 2并且定义可以容易地扩展到域适配。跨域移位:p1(y)=. . . =pn1(y)=p1(y)=. - 是的- 是的 = p2(y)= p3(y)=. - 是的- 是的 = p3(y). 我们讨论这个一组方法旨在通过学习域不变表示来获得域泛化[8,9,21,24,45]。DANN [9]使用对抗分类器从表示中预测域,而C-DANN [21]分别为每个域Galstyan等人[8]用一个使用希尔伯特-施密特独立准则(HSIC)[11]的术语来正则化经验风险最小化(ERM),以使表示独立于标签上的域。Zhao等人[45]使用各种技术来强制以表示为条件的标签的分布对于所有域都是相同的。DeepCORAL [40]添加了一个正则化项来对齐不同域 表 示 的 二 阶 不 变 风 险 最 小 化 ( Invariant riskminimization,简写为RST)[3]旨在通过找到数据的表示来学习不变的因果预测因子,使得表示之上的最佳分类器对于每个域都是相同Li等人[21]使用元学习和一步前瞻 梯度更新技 术来模拟训 练期间对 未知域的GroupDRO [36]最大限度地降低了培训领域的最差情况风险。最近,已经提出了基于梯度匹配的方法[31,37]。最后,一些作品介绍了评估域泛化方法的基准[14,18]。Gulrajani和Lopez-Paz [14]证明,在现实任务中进行评估时,现有的域泛化方法都没有优于经验风险最小化关于这些领域泛化方法为什么以及如何失败的研究非常有限罗森菲尔德n21n3附录F中的限制。我们还假设对于每一个-main i = 1,. - 是的- 是的 ,nj,j = 1,2,3,则给出来自相应分布pj(x,y)的独立样本D的集合。这些集合中的每一个被进一步划分为两个部分:j=jj。为了简单起见,我们还定义了训练(验证,测试)域样本的并集j=njj, j=njj,j=nj,对于每个j= 1、2、3。算法将在1.在[ 18 ]中,集合1被称为域内验证集合,在[8]中被称为准开发集合,在[14]中被称为训练域验证集合。 它用于衡量对训练域中未见过的样本进行算法在看不见的域上的性能是使用D3测量的.集合T j和Vj(j = 2,3)用于分析。我们考虑使用两个组件的神经网络的域泛化方法:一个特征提取器z=h θ(x)∈Rd,参数θ∈Θ,和一个w∈W。在这篇论文中,我们称之为“representa”,测量预测和标签之间的差异。在这项工作中,我们选择了标准的0-1损失函数:argmaxkyk(z(x))=y,这是最流行的。分类任务中的ular评估度量。然而,尽管如此,本文的大部分结果可以很容易地扩展到其他损失函数的选择,例如负对数似然损失函数,通常用于训练分类器。1907933Σn1+n3ΣΣ∈i=1我i=1我e2nEX3,Y3n(fwn(hθ(Xi)),Yi)EX1,Y1fw(hθ(X1)),Y1如果′ 是小的,样本的表示,. ΣΣΣ(a)e′00(b)e′0=0,e10(c)e′1=0,e20(d)e′2=0,e30(e)e′3=0图1.通过两类数据的2D表示证明了域泛化算法的失效模式。故障模式在第4.第一章空心和实心圆分别对应0和1类。颜色对域进行编码,训练域使用接近红色的颜色,测试域使用接近蓝色的颜色 这些线对应于可能通过在训练域上训练的简单ERM算法找到的决策边界。在所有子图中,域是可区分的:d0<$0。4. 失效模式我们提出了简单的评估指标来诊断训练模型,并确定一组失败,这些失败导致了看不见的域上的最终错误。我们提出了简化的示意图可视化的二维表示空间对应的每一个故障模式,例如。图1.一、在所有这些图中,每个圆圈对应于一个样品的代表样本的域由其圆的颜色编码橙-红-粉颜色对应于训练域,而绿-蓝颜色对应于训练域。大多数领域泛化算法。如果一个模型的目标的正则化项与分类器损失相比太强,以至于特征提取器无法学习任何有用的东西,那么这个模型可能会有很大的e′0一个例子将在实验部分讨论。训练集欠拟合如图所示。1a.测试集不可分离性。测试域的表示相对于所选分类器头的类可分离性如何?形式上,我们定义测试集不可分离性错误如下:到测试域。实心圆和空心圆用于e′1轴对称.1年3EX3,Y3Σ fw′(hθ(X)),YΣΣ Σ编码二进制标签。形式化地定义推广和不变性w′∈W你我我i=1指标,我们需要以下内容 额外 记法设(X1,Y1),. - 是的- 是的 (X1,Y 1)是随机变量对于特征提取器在训练域上过度拟合,1 1 n1n 1绘制 从 培训 域p1(x,y),. . .,p1(x,y)测试域的合理表示。 注意1N1和(X3,Y3),. - 是的- 是的 (X3,Y3)是随机变量所述表示的质量是关于以下各项来测量的:1 1 n3n 3从测试 域P3(x,y),.- 是的- 是的,第3页(x,y)。分类器头的类别(例如,线性函数),因为1n3设(X1,3,Y1,3) 被 一 随机 可变 从所有训练域和测试域的混合中提取p1,3(x,y)=1n1p1(x,y)+n3p3(x,y)。我们对表示具有关于域的信息但该信息不能被所考虑的分类器族解码/使用的情况不感兴趣的情况当e′= 0且e′很大时,如图所示。1b.4.1. 泛化指标01下面我们定义了四个评估指标,它们从定性上捕捉了泛化的不同方面。所有这些指标都将是某种错误(所以越低越好)。因此,我们将互换使用术语训练装备不足。模型的性能如何-训练测试不一致。有没有一个共同的阶级-sifier的表示训练和测试域?这个问题的答案是否定的程度由e′2度量来衡量:n3′1ΣΣ通过我e′0,定义如下:3我3 3Σ1N1n1我 我其中,w=argminEX1,3,Y1,3 n(fwn(hθ(X1,3)),Y1,3).w∈W我我 、e1每个域都足够好,可以用域分隔开-其中hθ和fw分别是学习的特征提取器和分类器。这个指标预计将很小,特定分类器但是,可能不可能找到一个将样本从所有域(培训领域的形式?形式上,该度量表示为、i=1e′0ℓi=13Σ。ΣΣ19080≫→∈(a)e′0<$0(b)e′0=0,e′1<$0(c)e1′=0,e′2<$0(d)e′2=0,e′3<$0(e)e′3=0(f)e′0<$0(g)e′0=0,e1′<$0(h)e′1=0,e′2<$0(i)e′3=0,d′2=0图2.通过两类数据的2D表示证明了域泛化算法的失效模式。第一行对应于训练域不变性(d′0= 0),但d′10。第二行对应于训练-测试域不变性(d′1= 0)。特别地,前三幅图像表明d′1= 0可以与大的e0,e1和e2共存。最右边的图像表明e′0= 0和d′2= 0一起意味着e′3= 0。故障模式在第4.第一章训练和测试),导致相对较高的e′2误差。这种情况在图1c中示出。这样的场景可以被认为是过拟合的“温和”版本,因为特征提取器学习了有用的和可解码的分类器非不变性。 这个最终的泛化度量是标准测试误差,并衡量学习模型在测试域上的性能。形式上,度量e′3定义如下:n4.2. 不变性度量许多领域泛化算法试图学习领域不变表示。直觉是,如果样本的表示在所有域中都是相似的,那么为训练域设计的分类器将通用于测试域。由于这些算法只能访问训练数据,因此它们通常在训练域上实现域入侵,但在训练域和测试域的联合上却不能实现受上面定义的泛化度量的启发e′31Σ33EX3,Y3(f w(h θ(X3)),Y3)我们引入了评估质量不同的指标,如-你我我i=1如果e′2= 0,表示是如此之好,以至于存在一个分类器,可以从训练和测试域中分离样本,并取得显著成功。在这种情况下,e′3本质上是衡量训练算法是否能够找到一个同时适用于训练和测试域的分类器。因此,这个度量的名称是请注意,训练算法可能很容易无法选择不变分类器,因为它在训练期间无法访问这种情况示意性地显示在图。1d.请注意,上述定义的四种失效模式和图1所示1是极端的情况,不应被认为是一个全面的情况清单。节中4.4我们提出了一种将模型的总体测试误差归因于这些故障模式的方法学习表征的域不变性方面而有许多方法来测量跨越两个或更多个域的表示的不变性的程度(例如,使用概率分布之间的形式距离或分歧),我们选择使用类似于上述泛化度量中使用的技术。非正式地,我们将通过测量如何使用域分类器区分两个域的样本来测量两个域的样本表示的不变性重要的是,我们将从与标签分类器相同的函数家族中提取域分类器也就是说,如果标签分类器头使用特定的这有意地忽略了无法被标签分类器解码的表示中的域信息。域分类器将是形式为gω:RdRK,ωk的函数,其中K是域的数目。19081−ΣΣ我|∀∼∼−Σd′11−infEX1我n(gω(hθ(X3)),i+n1)1n1′我训练域可扩展性。来自训练域的示例的表示是域不变的吗?形式上,我们表示第一个不变性度量d′0,并以如下方式定义它:这个d′2度量可以看作是先前度量d′1的条件版本。4.3. 论域不变性与广义度量的关系d′01infω∈Ω1N1ni=1EX1 Σℓ(g ω(h θ(X1)), i)ΣΣ−.我们证明了两个命题,建立之间的联系,推广和不变性故障。特别是这里常数1是随机分类器的准确度。这些命题排除了不变性的某些组合n1′和泛化失败。我们首先正式定义域注意,较低的d0值对应较高的不变性,而d′0= 0意味着不可能比平凡基线更好地区分域。当设计用于诱导不变性的正则化子与分类损失相比太弱时,d′0的值可能在实践中,如果正则化项被正确调整,重要的是要注意,在训练域上实现域不变性对于域泛化是不必要的,如图所示。1e.训练-测试域可扩展性。 来自训练域和测试域的联合的示例的表示是域不变的吗?我们的第二个不变性度量d′1测量了这个问题具有肯定答案的程度:Σ1 Σn1,X3表示的不变性和表示的类条件域不变性(不要与相应的不变性度量混淆)。定义4.1(表示的域不变性)。设D是一个域族。如果对于来自D的任何两个域p1(x,y)和p2(x,y),表示的分布相等,则我们说由特征提取器z = h(x)学习的表示相对于D是域不变的,即,z,pZ1(z)=pZ2(z),其中X1p1(x),X2p2(x),Z1=h(X1),Z2= h(X2).同样,我们通过要求p(z y)在族D的所有域上都相同来定义以标签为条件的表示的不变性。ω∈Ωn3+1:n11:n3n1+n3ΣΣ我i=11n1+n31.提案 如果e2= 0,则表示的sentations w.r.t. 训练和测试域隐含类条件域不变性w.r.t.工会培训和测试领域。假设d0= 0′,如果训练集和测试集的表示的分布不一致,如果测试域之间没有域不变性,或者两者兼而有之,则该度量d′1在理论上,这种达到不变性的失败可以与一般化的所有失败模式一致,如图2所示。此外,有可能随着大的d′1而具有域泛化(图1)。第2e段)。即使当模型实现高训练-测试域不变性(低d′1)时,第一域的1类样本的表示仍然可能与第二域的2类样本的表示一致,反之亦然。在这种情况下,将不会有域泛化。下一个指标旨在捕捉此类情况。训练测试类条件域不变性。属于每个类的样本的表示是域不变的吗?设Ey表示事件(Y1=第二个提案。如果e′0= 0且表示是类条件域不变的,训练域和测试域的并集,则e′3= 0。第二个命题意味着对于类条件域不变模型,训练域上的完美性能足以进行域泛化。4.4. 误差分解上面定义的泛化度量是顺序的,如果e′i很大,那么e′i+1也可能很大因此,差e′i+1e′i,i= 0,1,2,是更适合于分析目的的量事实上,图中所示的故障模式1是当这些差异之一较大且先前度量接近于零时的情况根据这一推理,我们1 331定义e0e′,e1e′−e′,e2e′−e′,e3e′−e′,y···Yn=yY1=y···Yn=y)。我们定义010213 21d'3,并将测试域上的误差ee′3分解为2度量如下:四个组成部分:d′21 −1ΣinfEΣ1Σn1n(gω(hθ(X1)),i)e=e0+e1Cy=1ω∈θn1+n3i=1训练s'etunxderfitting测试集`inpxarabilityn3+i=1n(gω(hθ(X3)),i+n1)Σ。Ey−1.n1+n3+e2训练-t`stmix对齐+e3classifier`non-xin variance.(一)1我ΣC我n(gω(hθ(X1)),i)i=1−.19082联系我们联系我们V01021这些分量中的每一个都可以被解释为相应的失效模式对模型误差的单独贡献。当分解的成分是非负的时,这种分解是最有意义的一般来说,e1、e2和e3可以是负的,例如当测试域的样本与训练域的样本相比明显更容易分类时然而,这是一种罕见的现象,在我们的实验中没有观察到。此外,可以证明,平均(w.r.t.)对于域的训练测试分裂),每个ei,i= 0,1,2,3是非负的。我们在附录B中给出了这一陈述的精确表述及其证明。类似地,域可扩展性dd′2可以分解为三个组件:MNIST图像分成五组相同的大小。对于每个域,我们随 机 固 定 三 个 然 后 我 们 我 们 最 终 在 每 个 形 状 为50x28x28的域中获得了大约1200张图像在此数据集上训练的所有模型都使用一个简单的神经网络,该神经网络具有两层ReLU激活的卷积特征提取器和其上的线性层所有模型都训练了10个epoch。数据集中的样本见附录C。我们分析了以下领域推广算法。经验风险最小化(ERM)[42]被用作基线。它最小化所有训练域上的错误总和,并且不使用域信息。ERM+HSICd=d0训练doma`inpuzzixstinguishability+d2+d1训练-测试域可扩展性、(二)[8]是一种简单的算法,试图通过添加希尔伯特-施密特独立准则(HSIC)[12]正则化项来诱导训练域的域不变性,该正则化项惩罚学习表示中的域信息训练-测试类-条件域可扩展性其中d0<$d′,d1<$d′−d′,d2<$d′−d′。我再次重申,DeepCORAL[40]是作为一种域自适应算法引入的,但最近被应用于域泛化。任务设置 [14 ]第10段。 它惩罚了这些组成部分中的每一个都可以被解释为单独的,相应失效模式的年度贡献。这种分解的某些成分在极少数情况下也可能是负的,但如果我们考虑对域的训练测试分裂进行平均,则是非负的(参见附录B)。5. 实验5.1. 数据集和算法适用于测试域生成算法的数据集数量并不多。在[14]中尝试以统一格式收集它们。七个数据集中有两个是基于MNIST数字的,另外四个是具有类似标签的不相关 数 据 集 的 简 单 联 合 , 只 有 一 个 是 现 实 的 :TerraIncognita。后一个有域名之间的标签转换最近提出的WILDS基准[18]还有另外七个与现实世界问题相关七个中只有一个,Camelyon17,是精心设计的,没有标签转移。它是淋巴结捕获的较大Camelyon17数据集[5]的基于补丁的变体WILDS 基准中的版本包含450000个淋巴结切片中每个贴片的标签补丁的域是图像来自的医院有五家不同的医院,三家用于培训,一家用于验证,一家用于测试。在[18]之后,我们使用Densenet-121 [17]用于该数据集上的所有算法,并训练10个epoch。我们还使用了[8]中的有色MNIST数据集的略有修改的版本,最初来自[19]。我们改变了数据集生成过程,以模仿Came-lyon 17。也就是说,我们通过分裂构造了五个域,跨域表示分布的均值和协方差矩阵。不变风险最小化(Invariant Risk Minimization,简称RST)算法[3]试图推动所有域的表示分布具有相同的最佳分类器头。在[29]中,作者分析了基于梯度下降的al-tax中的梯度饥饿现象他们提出了一种新的正则化方法,称为谱解耦(SD)。为了克服梯度饥饿,它通过在网络logits上增加L2惩罚来惩罚模型GroupDRO被[35]用来解决最差组的表现。它试图通过避免训练数据中的虚假相关来提高最差组的性能。通过将域解释为组,该算法变得适用于我们的设置。另一种依赖于域不变特征的方法是在[1]中引入的域对抗神经网络(DANN)。 它试图通过使用 域分类器(来自特征)和梯度反转层。所有这些算法(除了ERM)都有一个正则化强度超参数,我们用β表示。超参数范围见附录D。根据文献,我们将最后一个隐藏层的输出视为学习表示hθ(x)。因此,标签和域分类器fw(z)是线性的(即,只有一个完全连接的层)。型号选择。DomainBed基准测试的作者明确警告了领域泛化中不适当的模型选择他们主张,在实践中,模型选择应该基于域内验证集的性能(1),或者使用留一域验证。WILDS基准引入了独立的验证域,并建议将其用于模型选择。在我们的实验中我们将使用这种方法19083−我J我JT T VVD2D1d0e3e2e1e01.01.01.01.00.50.50.50.50.00 0. 1 0. 5 12510 15β1.00.00 0. 1 0. 5 12510 15β1.00.00 0. 1 0. 5 12510 15β1.00.00 1 2 3 4 5 6 7 8 9历元1.00.50.50.50.50.00 0. 1 0. 5 12510 15β(a) ERM+HSIC0.50.40.30.20.10.00 5 10 1520时代1.00.00 0. 1 0. 5 12510 15β(b) 深海珊瑚0.50.40.30.20.10.00 5 10 1520时代1.00.00 0. 1 0. 5 12510 15β(c) DANN0.50.40.30.20.10.00 5 10 1520时代1.00.00 1 2 3 4 5 6 7 8 9历元(d) ERM+HSIC(β = 0. 第一章0.50.40.30.20.10.00 5 10 15 20时代1.00.50.50.50.50.00 5 10 1520时代(e) 随机初始化(验证)0.00 5 10 1520时代(f) 随机初始化(测试)0.00 5 10 1520时代(g) 冷冻BYOL(验证)0.00 5 10 15 20时代(h) 冷冻BYOL(试验)图3.在验证域(a-e,g)和测试域(f,h)上测量的几个模型的泛化误差和域可扩展性的分解水平轴对应于:(a)-(c)算法的正则化强度,(d-h)训练时期。图(c),(b)和(d)显示了有色MNIST数据集的结果;所有其他数据都在Camelyon 17上。超参数选择要在单次运行中选择最佳检查点,可以使用相同的验证域。在这篇论文中,我们总是选择最后一个时代。5.2. 衡量失败为了避免访问测试域,我们只对训练域和验证域进行分析。在SEC中定义的指标。4包含分布上的期望和分类器上的下确界。在实践中,我们使用scikit-learn包中的逻辑回归实现通过经验风险最小化来近似下限值[27]。请注意,这可能无法找到最佳值,经验估计值可能比真实值更差在e′2的情况下,估计可能比域泛化算法本身找到的解更差,即e′3
下载后可阅读完整内容,剩余1页未读,立即下载
![rar](https://img-home.csdnimg.cn/images/20210720083606.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- VMP技术解析:Handle块优化与壳模板初始化
- C++ Primer 第四版更新:现代编程风格与标准库
- 计算机系统基础实验:缓冲区溢出攻击(Lab3)
- 中国结算网上业务平台:证券登记操作详解与常见问题
- FPGA驱动的五子棋博弈系统:加速与创新娱乐体验
- 多旋翼飞行器定点位置控制器设计实验
- 基于流量预测与潮汐效应的动态载频优化策略
- SQL练习:查询分析与高级操作
- 海底数据中心散热优化:从MATLAB到动态模拟
- 移动应用作业:MyDiaryBook - Google Material Design 日记APP
- Linux提权技术详解:从内核漏洞到Sudo配置错误
- 93分钟快速入门 LaTeX:从入门到实践
- 5G测试新挑战与罗德与施瓦茨解决方案
- EAS系统性能优化与故障诊断指南
- Java并发编程:JUC核心概念解析与应用
- 数据结构实验报告:基于不同存储结构的线性表和树实现
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)