少样本类增量学习:连续进化分类器的探索

0 下载量 144 浏览量 更新于2025-01-16 收藏 1.87MB PDF 举报
"本文研究了连续进化分类器在少样本类增量学习(FSCIL)中的应用,重点关注如何解决过拟合和灾难性遗忘问题。文章提出了两种主要方法:解耦学习策略和连续进化分类器(CEC)。解耦学习策略通过只更新分类器来减少知识遗忘,而CEC利用图模型传播上下文信息,使得分类器能够适应所有类别的预测。文章通过在CIFAR100、miniImageNet和CUB200等数据集上的实验验证了方法的有效性。" 在当前的深度学习领域,深度卷积神经网络(CNN)在诸如图像识别等计算机视觉任务中取得了显著成果。然而,这些模型的局限性在于它们只能处理预先定义的类别,当需要对新类别进行预测时,需要大量的新类别标注数据以及旧类别数据进行微调,这在实际应用中往往是难以实现的。面对这一挑战,少样本类增量学习(FSCIL)应运而生。 本文针对FSCIL中的两大难题——有限数据导致的过拟合和旧知识的遗忘(即灾难性遗忘),提出了新的解决方案。首先,采用表示和分类器的解耦学习策略,保持预训练的骨干网络不变,仅更新分类层,以减少在学习新类别时对已有知识的破坏。这种策略能有效缓解过拟合问题,同时保护了模型对旧类别信息的记忆。 其次,为了进一步提高分类器的泛化能力,文章提出了连续进化分类器(CEC)。CEC利用图模型来传播不同分类器之间的上下文信息,确保在各个学习阶段学到的分类器能够协同工作,适应所有类别。为实现CEC的学习,作者设计了一种伪增量学习范式,通过从基础数据集中采样构建一系列伪增量学习任务,使模型能够在不接触旧类别数据的情况下,持续学习和改进。 实验结果表明,CEC在CIFAR100、miniImageNet和CUB200等数据集上展现出显著优于现有方法的性能,验证了解耦学习和连续进化分类器在FSCIL任务中的优越性。这项工作为解决深度学习模型在动态环境中持续学习和适应新类别的问题提供了新的思路,对于推动模型在现实世界中的应用具有重要意义。