没有合适的资源?快使用搜索试试~ 我知道了~
首页A New Meta-Baseline for Few-Shot Learning.docx
A New Meta-Baseline for Few-Shot Learning.docx
需积分: 48 490 浏览量
更新于2023-05-27
评论 1
收藏 1.43MB DOCX 举报
A New Meta-Baseline for Few-Shot Learning的中文翻译 (近些年来元学习成为对于小样本学习的流行框架,目的是从小样本分类任务的集合中学习模型。尽管一些越来越多的元学习模型正在出现,我们的研究揭示了一些被忽略的简单基线,提出了一种元基线方法)
资源详情
资源评论
资源推荐

对于小样本学习的一个新的元基线
摘要:
近些年来元学习成为对于小样本学习的流行框架,目的是从小样本分类任
务的集合中学习模型。尽管一些越来越多的元学习模型正在出现,我们的研究
揭示了一些被忽略的简单基线,提出了一种元基线方法,在所有基类上预训练
一个分类器,在最近中心基于小样本学习分类算法进行元学习,它大大超过了
最近的最先进的方法(sota)。为什么这个简单的方法效果这么好?在元学习
阶段,我们观察到,从基类中更好地推广不可见任务的模型可以降低来自新类
的任务的性能,表明潜在的客观差异。我们发现,预训练和从预先训练的分类
器继承一个好的小样本分类度量对于元基线是重要的,这可能有助于模型更好
地利用具有更强可转移性的预训练代表。此外,我们研究了什么时候在这个元
基线需要元学习。我们的工作为这一领域建立了一个新的坚实的基准,并为进
一步理解对于小样本学习的元学习框架中的现象提供了线索。
1、介绍:
虽然人类已经表现出难以置信的能力,从很少的例子中学习,然后推广到

许多不同的新例子,目前的深度学习方法仍然依赖于大规模的训练数据,为了
模仿这种人类的泛化能力。小样本学习(Fei-Fei 等人,2006 年;Vinyals 等人,
2016 年)被提出用于训练深度网络,以理解一个新的概念,基于少量标注样本,
因为直接学习大量的参数与很少的样本是非常具有挑战性的,而且很有可能导
致过拟合,一个实际的解决是应用迁移学习。我们可以先在有足够样本的公共
类(基类)上训练深度模型,然后将模型转移到仅基于少数几个例子的新类上
学习。
元学习框架的小样本学习遵循学会学习的关键思想。具体来说,它从属于
基类的训练样本中提取少量的学习任务,并优化模型以在这些任务上表现良好。
一个任务通常采用 N-way 和 K-shot 的形式,其中包含 N 个类,每个类中具有 K
支持样本(训练集)和 Q 查询样本(验证集)。目的是在学习了 N×K 支持样本
后,将这些 N×Q 查询样本成功分类为 N 个类。在元学习框架下,对模型进行直
接优化,使其在小样本任务上表现良好。基于这一思想,最近的工作集中在改
进元学习结构,而小样本学习本身已经成为评价元学习算法的常见测试平台。
越来越多的元学习方法用于小样本学习,但改进这些基线方法中很少有效果的。

我们首先采用一个简单而有效的基线进行小样本学习,我们将这个基线命
名为分类器-基线,在分类器-基线中,我们首先在基类上预先训练一个分类器
来学习视觉表示,然后删除最后一个依赖于类的全连接(FC)层。给定一个具有
少量样本的新类,我们计算给定样本的平均特征,并利用特征空间中的余弦距
离,用最近质心对查询样本进行分类 即余弦最近质心。这一过程也可以看作是
估计新类的最后 FC 权重,但不需要为新类训练参数。虽然在(Chen 等人,2019
年)中也做了类似的尝试,但他们为新的类微调了一个新的 FC 层,并遵循了与
sota 方法不同的设置。相反,我们没有遵循它们,仅简单使用了最近的质心度
量,并使用标准的 Image Net 样优化设置来训练我们的模型,从而提高了模型的
效率和性能。
图 1,本文提出了简单而有效的分类器-基线和元-基线。从 1a 开始,我们观察到 Meta-
Baseline 优于元学习,特别是在深层主干中还有大数据集。在 1b 所示的 Meta-Baseline
的元学习阶段,我们观察到当模型更好地推广到基类中不可见的任务时,它的小样本分类

执行在新类中的 CE 可以减少,这表明元学习框架中存在客观差异。
我们观察到这个分类器-基线的性能与许多最近最先进的元学习方法相当,
甚至优于许多最先进的元学习方法,尽管它既没有优化到很少的任务作为元学
习或有额外的微调。
我们能让元学习实际上改善分类器基线吗?在本文中,我们认为分类预训
练和元学习都有自己的优势对于小样本学习,我们提出了 Meta-Baseline 将这两
者的优势进行了简单结合。在 Meta-Baseline 中,我们使用预先训练的分类器-基
线初始化模型,并使用余弦最近轮廓度量执行元学习,这是在 Clsifier-Baselin
中的评估度量。经验上,我们观察到 Meta 基线可以进一步提高分类器-基线的
性能,如图 1a 所示,由于 Meta-基线可以学习与预先训练的分类器-基线的最小
变化,因此在不同的数据集上这个改进是稳定的。
鉴于这些令人鼓舞的结果,我们还观察到训练过程中的测试性能下降,因
此我们在实验中进一步进行烧蚀分析。我们在元学习的背景下评估了两种泛化
类型:1、基类泛化;是指基类中不可见数据对小样本分类任务的泛化,它遵循
泛化的共同定义,但我们将其重命名为 澄清;2、新类泛化;表示从新类中的

数据中对小样本分类任务的泛化,这进一步表明了从基础类到新类的可转移性。
在不同的训练迭代过程中,我们发现,虽然 Meta-Baseline 正在改进基类泛化,
但它的新类泛化在降低,这表明:1、在元学习阶段可能是一个客观的差异,改
进基类泛化可能导致更糟糕的新类泛化。2、由于模型是在元学习之前预训练,
分类前训练可能为元学习模型提供了额外的可转移性。3、当新类更类似于基类
时元学习相对于分类符-基线的优势更加明显。在我们的进一步实验中,我们得
到了一致的观察,支持这些假设。
总之,我们的贡献如下:·
• 我们提出了一个简单的 Meta-Baseline,它兼具分类预训练和元学习的优
点,并且在很大程度上优于 sota。
• 我们观察到基类泛化和新类泛化之间的不一致性,这可能会回顾元学习中
要解决的关键挑战,用于小样本分类。
• 我们研究了数据集方面(类相似性、尺度)和骨干方面(模型大小)的因素
如何影响元学习相对于分类器-基线的优势。
2、相关工作:
剩余24页未读,继续阅读


















王小波_Libo
- 粉丝: 3026
- 资源: 14
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助

会员权益专享
安全验证
文档复制为VIP权益,开通VIP直接复制

评论0