8250持续原型进化:从非平稳数据流中在线学习Matthias De Lange Tinne Tuytelaars{matthias.delange,tinne. telaars}@kuleuven.be摘要在表示学习中,获得代表类分布的原型特征是公认的然而,从流数据在线学习原型证明了一项具有挑战性的努力,因为它们迅速变得过时,这是由学习过程中不断变化的参数空间引起的。此外,持续学习并不假设数据流是静止的,这通常会导致对先前知识的灾难性遗忘。作为第一个,我们介绍了一个系统,解决这两个问题,其中原型不断演变的共享潜在空间,使学习和预测在任何时间点。为了促进学习,一个新的目标函数同步的潜在空间与不断发展的原型。在持续学习的主要机构的工作相比,数据流处理在一个在线的方式没有任务信息,可以是高度不平衡的,为此,我们提出了一个有效的内存方案。作为一个额外的贡献,我们提出了学习者评估框架,i)概括现有的范式在持续学习,ii)引入数据增量学习,和iii)模型之间的桥梁持续学习和概念漂移。我们获得了国家的最先进的性能的显着保证金八个基准,包括三个高度不平衡的数据流。代码是公开可用的。11. 介绍数据流在当代应用中的流行促使系统以持续的方式学习。自动驾驶车辆、传感机器人数据和视频流产生永无止境的数据流,在每次车辆转弯、机器人进入新房间或相机切换到后续场景之后,观察到的环境会发生突然变化。唉,由于这些变化,从流数据中学习远非微不足道,因为神经网络的学习方案已经开发出来,假设相同且独立的数据。1https://github.com/mattdl/ContinualPrototypeEvolution评估器评价优化学习者图1:学习者-评估者框架概述,通过明确建模学习者和评估者数据流的持续优化和评估,克服了静态培训和测试范式。框架-工作概括为持续学习和概念漂移,其中资源被透明地定义为视野D和操作记忆M。贡献(IID)数据。当这一假设被违反时,会发生对先前获得的知识的catastrophic遗忘[11],从而在保持当前知识状态的神经稳定性和迅速采用新知识的神经可塑性之间产生权衡[14]。寻求这种微妙的平衡被认为是持续学习系统的主要障碍虽然在文献中已经取得了很多进展,但通常会应用强有力的假设[9],从而阻碍了现实世界系统的应用静态的训练和测试模式占主导地位,而真正的持续学习者应该同时独立地进行训练和测试。因此,我们提出了学习者-评估者框架,重新定义了该领域现有范式的视角在这个框架内,我们引入了数据增量学习,实现了完全无任务的学习和评估。此外,我们还引入了持续原型进化(CoPE),这是一种新的在线数据增量学习器,其原型永久地代表了类人群的最显著特征,从而改变了灾难性遗忘8251DYXM∈XDDDDDX →YDDY ← Y ∪{}DDDYDDDD{∈|}DYD{∈|∈ Y}将问题从全网络参数空间转移到低维隐空间。首先,我们的原型随着数据流不断发展,使学习和评估在任何时间点。类似于人类认知中的代表性启发式[22],类原型是最近邻分类的基石此外,我们的系统是强大的高度不平衡的数据流相结合的重放与平衡内存pop-ulation计划。我们发现批信息的潜在空间是至关重要的具有挑战性的非平稳和在线处理制度,我们将在我们的新的伪原型代理损失。2. 学习者-评价者框架到目前为止,任务、班级和领域递增学习[46]的范式主导了持续学习文献。然而,强有力的和不同的假设经常导致这些定义的实现之间的混淆和重叠。此外,静态训练和测试阶段的概念仍然普遍存在,而持续学习系统应该连续且独立地实现这两个因此,我们提出了一个概括性的框架,将持续学习系统分解为两个实体:学习者和评价者。图1显示了该框架的概览。学习器优化预测函数fθ:由θ参数化,将输入空间映射到目标输出空间。学习器从流S接收数据样本(xi,yi)并且同时访问水平线,即流S的可观察子集,其可以被处理多次迭代。数据样本i由输入特征xi构成以及相应的(自)监控信号yi,其中用于分类的输出空间被定义为观察到的类ii-1yi的离散集合。管理内存使用情况并启用多个更新和由于优化过程中的随机性,θ的更新通常基于小规模处理批次B执行.地平线的数据和大小由特定设置或应用程序确定,范围从使用=S的标准离线学习到使用=B的在线持续学习。此外,学习者在观察来自B的数据之后可能需要额外的资源,诸如由操作存储器限制的存储的样本或模型副本。评估者独立于学习者,通过评估f θ,使用来自评估流S eval的水平eval,使用小规模处理批次B evaleval.该流可以包含S中的学习者尚未观察到的概念,以测量零触发性能。该框架为Seval中的概念分布提供了静态或动态演变的余地,从而确定如何测量学习者的表现。一方面,静态概念分布可以测量到其保存了所学习的概念的知识,如在持续学习中通常使用的那样。另一方面,演化概念分布仅在水平评估中测量当前分布的性能,其中概念可能从其原始表示漂移,也称为概念漂移[38]。评估可以按需异步发生或周期性地发生,其中周期性ρ确定评估样本的分辨率。任务、类和领域增量学习基于水平线t中学习者的可观察流子集的组成。在所有三个场景中,学习器接收形式为(xi,yi,ti)的数据,其中ti是当前任务、类集合或域的范围t = ti的指示符。 在任务增量学习中,学习者的视野涵盖给定任务的所有数据,即t=(xi,yi,ti)S t=ti[9,47]。此外,该设置假设评估者以与学习者相同的形式接收数据,因此具有对ti的显式访问。 这将预测限制到输出节点的任务特定子集,也称为头。在类增量学习中,基于类t的子集来确定范围,即 t=(xi,yi,ti)Syit=ti,其中学习器需要ti来识别S [37,6,43,50]中的后续类别子集ti之间的转换。然而,评估器考虑整个输出空间而不需要标识符t。 域增量学习与类增量学习保持相同的假设,尽管对于典型的固定输出空间,概念从一个域漂移到另一个域,例如广泛使用的置换MNIST设置[13]。 为了测量知识被保留到什么程度,持续学习一般假设对于新的t i,一组固定的评估样本被添加到评估者的水平评估中,t=ti,相互排他地从与学习者相同的分布中抽取层位Dt=ti。数据增量学习是我们引入的一种更通用的范式,用于促进从任何数据流中学习,没有对观察数据的范围或顺序与现有范例相比,当学习者观察数据流S的视界时,数据增量学习不公开标识符t。因此,没有明确指示在视野中正在观察流的哪个子集。因此,学习器或者以在线方式直接处理观察到的数据,处理批次B=,或者从流S中的统计推断隐式标识符t。类似于类和域增量学习,评估器在没有t的情况下在整个输出空间上操作数据增量学习范式赋予持续学习系统以增加的实际用途,因为现实世界的流媒体应用通常缺乏监督信号t。此外,使该标识符可用可能取决于任意选择,诸如如何描绘任务,从而引入不希望的偏差。数据增量学习类似于在线学习8252DMDDDD|M|M|M|评价学习者sample sample horizonDiidonline learning(xi,yi)(xi,yi)batch(D=B)✓continuous learning任务增加(xi,yi,t i)(xi,yi,t i)task(Dt=ti)班级增加(xi,yi) (xi,yi,t i)类子集(Dt=ti)域递增(xi,yi) (xi,yi,t i)domain(Dt=ti) 数据增加(xi,yi) (xi,yi) 任意子集(B ≤