前语 本文介绍了引进增量学习的必要性,继而引出最新的三种能够有用运用有用标签数据范式的增量学习办法。其次,针对这三大范式进行一个全面的调研,让咱们对这个范畴的整个发展头绪有一个明晰的知道。文章的终究,会集评论当时增量学习存在的一些局限性以及结合现有的技能给出一些值得评论的研讨方向。

本文转载自CVHub

作者丨派派星

欢迎重视大众号CV技能指南,专心于核算机视觉的技能总结、最新技能盯梢、经典论文解读、CV招聘信息。

核算机视觉入门1v3辅导班

导读

增量学习(Incremental Learning),亦称为继续学习(Continual Learning)或终身学习(Life-Long Learning),是一种机器学习办法,它答应模型经过对新数据进行继续学习而不是重头练习整个模型。这种办法答应模型不断地学习新的常识,并在不断实践复杂多变的环境变化。

从前绝大多数增量学习办法均高度依靠于标签数据集,这必定会约束增量学习技能在实践生活中的运用。因而,本文将从高效标签的视点动身,以一种簇新的视角,带领咱们从零开端踏入增量学习范畴。

在本文的开端,咱们会向咱们介绍的介绍下引进增量学习的必要性,继而引出最新的三种能够有用运用有用标签数据范式的增量学习办法,包含半监督学习、小样本学习以及自监督学习。其次,咱们将针对这三大范式进行一个全面的调研,让咱们对这个范畴的整个发展头绪有一个明晰的知道。文章的终究,咱们会会集评论当时增量学习存在的一些局限性以及结合现有的技能给出一些值得评论的研讨方向,一起,为了协助咱们更加深入的学习增量学习,一些必要的增量学习结构(依据Pytorch构建)以及最前沿的增量学习办法也将给到咱们去实践,进一步进步自身的才能,形成完整的闭环,十分感谢咱们对 CVHub 的支撑与鼓舞。

动机

聊到增量学习,不得不提的一个反例必定对错增量学习,其假定模型每次都能够一起拜访每个类别的一切状况下的图画。显然,这是不切实践的。下面扼要概括下它的三全局限性:

  1. 模型仅能辨认固定类别的物体;

  2. 模型无法练习一切布景下的数据(例如不同季节、不同气候、不同光照条件等);

  3. 模型一旦布置无法在线运用新数据(除非你重新上线一版);

由此可见,引进增量学习对错常有必要的。

万字长文带你入门增量学习

Incremental learning examples.

上图供给了三种不同办法的增量学习范式:

  • Semi-Supervision:半监督能够将有限的符号数据与丰厚的未符号数据相结合,经过伪标签监督削减对真实标签的依靠程度;

  • Few-shot-Supervision:小样本监督学习则能够扩展预练习的分类器来削减标签依靠,仅运用很少的符号实例;

  • Self-Supervision:自监督学习是经过指定前置文本使命,以舍弃对标签的依靠;

在这儿,方针是经过增量学习匹配同一输入图画的不同视图(例如裁剪、旋转和色彩抖动)来获取表征。说一千道一万,或许许多小伙伴心中都有一个疑问:

已然增量学习这么有用,为什么实践运用中却鲜有人用?

万字长文带你入门增量学习

学术界通用的解释套路是灾难性忘记现象。怎样了解呢?大致意思便是说在调查更多增量使命时,模型在从前使命上的功能便会下降,中文有个词形容的十分好——此长彼消,写到这儿不得不慨叹古人的才智。为了处理这个问题,有两种典型办法能够缓解,即正则化(regularization)和经历回放(experience replay)。

万字长文带你入门增量学习

OWM办法原理示意图

引进了正则化技能能够有用约束神经网络权重在学习使命中的突然漂移,浅显点了解便是简略地经过 来赏罚变化的范数。而经历回放则是将从前的数据适量的加入当时的增量使命来缓解模型的“健忘”程度。但是,还有一个点或许简略被忽略,那便是可扩展性。究竟当时的增量学习依然需求很多的标示数据才干取得可观的功能。除了以上两种办法,还有依据常识蒸馏的办法,依据特征回放的办法以及依据网络结构的办法等,文章篇幅有限,此处不再描绘。

万字长文带你入门增量学习

因而,怎么高效运用标签成为了该范畴亟需处理的问题。这一点咱们比较熟知的应该是搬迁学习,该办法建立在大规划预练习模型的根底上,只需运用有限的数据便能有用的将大模型学习到的常识搬迁到个人使命上,在实践傍边运用十分广泛,简直成了标配。有了这种成功的典范,咱们是否能够考虑进一步将这种办法引进到增量学习傍边去构建一个更大规划、能够高效运用标签的增量学习器呢?何乐而不为。

在正式介绍这三种范式之前,让咱们先简略的了解增量学习使命的首要评价方针。增量学习作业中一般经过制作增量准确率曲线(incremental accuracy curve)和忘记率曲线(incremental forgetting curve)来评价功能的好坏。其间触及到的两个首要方针便是准确率(accuracy)和忘记率(forgetfulness)。

  • Accuracy: 准确率衡量的是一切学习使命的测验准确性。

万字长文带你入门增量学习

简略的解释下,上述公式表明的是在第 个增量阶段,增量准确率指的是当时的模型在一切已见类别上的分类准确率。而不同阶段的增量准确率常常以增量准确率曲线展现。

  • Forgetfulness: 忘记率衡量的是学习增量使命时平均功能下降程度。

下表[1]简略的总结了几类不同的增量学习办法,下面咱们将依据此表为咱们具体的介绍关于 IL 的那点事。

万字长文带你入门增量学习

半监督增量学习

首要,让咱们先学习下半监督式的增量学习,其旨在经过运用未符号的数据来削减对标签的依靠。惯例的做法是先运用一小部分带有标签的数据集练习出一个深度学习模型,然后运用该模型对未符号的数据打上标签。通常,咱们将这种用非人工标示的标签信息称之为——伪标签(pseudo labels)。

因而,依据未符号数据的类型,咱们能够简略的划分为三种类型:

  • Within-data,即属于同一份数据集内的没有打标签的那部分数据;

  • Auxiliary-data,即辅佐数据,例如咱们从网络上爬下来的数据;

  • Test-data,即最简略的测验集数据

其间,Within-data 需求模型从头开端练习,而别的两种办法则是建立在预练习好的模型根底之上。下面分别为咱们介绍下典型的办法。

Learning from Within Data

CNNL[2]

万字长文带你入门增量学习

CNNL,即接连神经网络学习,是半监督和增量学习交叉范畴的前期作业之一。作者在符号好的数据集上练习一个根底的卷积神经网络模型,然后将其用于在未符号数据集上生成伪标签。终究,经过在伪标签上微调增量学习器以完成自练习(self-training)的过程。

DistillMatch[3]

万字长文带你入门增量学习

与需求很多内存预算的规范回放计划不同,DistillMatch 中探究了无标签数据流作为回放的潜力,并明显降低了所需的内存预算。与之前的作业需求拜访与环境无关的外部数据流不同,作者认为数据流是继续学习代理环境的产品。此外,经过对域外检测器进一步的优化,然后辨认出与当时增量学习使命无关的数据散布,以减轻对从前类别的忘记。

值得注意的是, 常识蒸馏最初是为模型紧缩而规划的。跟着LwF[4](Learning without forgetting)办法初次将其运用于增量学习, 常识蒸馏丢失已成为了很多增量学习办法的根底模块。如下图所示,后续的作业首要可分为依据重要特征蒸馏,依据样本联系蒸馏和依据辅佐数据的蒸馏,这些办法有用的改善类别增量学习中的常识蒸馏战略。

万字长文带你入门增量学习

Knowledge distillation strategies in class incremental learning

ORDisCo[5]

万字长文带你入门增量学习

具有判别器一致性的在线回放(online replay)遵循生成回放战略来回放数据和标签。ORDisCo运用符号数据来练习条件 GAN 生成器,并选用未符号数据作为区分 real-fake 的额定示例。此外,为了进一步进步增量学习使命的一致性,作者还对判别器权重的骤变部分进行了赏罚(可了解为加正则)。

MetaCo[6]

万字长文带你入门增量学习

MetaCon, 即Meta-Consolidation,是将 ORDisCO 的生成重放计划扩展到元学习设置。作者没有直接练习条件 GAN 进行生成回放,而是优化了生成 GAN 权重的条件超网络。作者以当时使命的语义词嵌入为条件,将超网络参数化为变分自编码器(Variational Auto-Encoder, VAE)。为了稳定超网络,他们存储增量学习类的一阶核算数据以更好的进行数据回放。

关于变分自编码器的具体介绍,可重视大众号『CVHub』翻阅历史文章学习。

PGL[7]

万字长文带你入门增量学习

PGL 全称是 Pseudo Gradient Learners,即伪梯度的学习器,其依据元学习猜测每个输入的梯度。作者宣称伪标签的运用会给分类器带来负优化,导致梯度的错误累积,一起其功能会随时间下降。因而,本文办法经过猜测梯度而非标签,该模型不像伪标签那样与一组预界说的类相关联,一起能够运用散布外的数据来进步功能。

Learning from Auxiliary Data

DMC[8]

万字长文带你入门增量学习

DMC,Deep Model Consolidation,即深度模型整合应该是最早运用未符号的辅佐数据来减轻灾难性忘记的代表作之一。作者首要在符号好的数据集上练习深度分类器,然后用于在辅佐数据上生成伪标签。其间,伪标签充当当时模型和从前模型之间的正则化器,以削减对从前“看到”的类的忘记。

CIL-QUD[9]

万字长文带你入门增量学习

CIL-QUD 是一种运用查询未符号数据的类增量学习办法,其建立在 DMC 的根底上,可是选用依据检索的办法。作者在内存中将每个增量类的少数实例存储为查询 Anchor。查询锚用于在辅佐数据会集检索视觉上类似的样本,然后用于回忆重放。

Learning from Test Data

CoTTA[10]

万字长文带你入门增量学习

CoTTA,Continual Test-Time Adaptation,即在推理时调整预练习的深度分类器。这种状况是很常见的,以自动驾驶为例,想象一辆自动驾驶汽车在不断变化的气候条件下继续行进,这种状况下咱们无法保证喂给模型的数据能够掩盖各类气候状况。因而,这种自适应的才能对错常有必要的,尤其是当测验数据与原始练习源不同并且源数据不再可用时。为了处理这个新问题,作者提出了一种依据正则化的办法,经过在同一输入的多个增强中强制执行一致性正则化,以及对一些网络参数进行挑选性微调。

NOTE

万字长文带你入门增量学习

NOTE,即No i.i.d. TEst-time adaptation,即非独立同散布的测验时适应,是将 COTTA 进一步扩展到实际场景的作业,其后续测验示例具有高度的时间相关性。作者宣称,在这种状况下,依靠伪标签办法的 BN 核算或许会严峻地使学习器偏向当时批次。因而,本文办法选用 IN 替代 BN。值得一提的是,相对 CoTTA 其功能要好得多。此外,相关的作业还有去年宣布在 CVPR 2022 上的 LAME[11],有兴趣的小伙伴也能够自己的读读原文。

万字长文带你入门增量学习

Incremental Learning with Semi-Supervision

小样本增量学习

在增量学习使命的练习期间,小样本监督学习器运用来自新类别的少数示例更新预练习模型。在这方面,小样本监督办法一起处理了两个基本应战:

  • Overfitting to Novel Categories

众所周知,如果咱们直接依据这极端有限的练习样本去重头优化模型,那必将导致咱们的模型会过度拟合这些样本。为此,咱们能够在增量练习期间将现已学习的分类器权重与相关的新类别相关联。这儿,依据不同关联机制,咱们能够简略的将该使命划分为几大类,即依据图的办法,依据聚类的办法以及依据网络架构的办法。此外,一些技能还触及到运用语义词嵌入来辨认语义相关类别以进行常识的搬迁。

  • Forgetfulness of Base Categories

上面咱们提过,学习新的类别或许会导致原有模型权重的“漂移”,然后导致终究的模型功能下降。处理此问题的两种有用技能包含经过衡量学习方针进行正则化,例如在 CVPR 2020 从前宣布过的 anchor loss[12],或者简略地对基类数据进行内存回放。

Graph-Based Methods

TOPIC[13]

万字长文带你入门增量学习

TOPIC,即 TOpology-Preserving knowledge InCrementer 是一种依据图的增量小样本学习器。作者将每个增量类视为一个新节点,将其插入到已存在的根底分类器嵌入的彻底连接图中。它们依据成对联系将信息从根底分类器节点传播到新分类器的节点傍边,一起经过分类器嵌入的类似度进行衡量。此外,为了避免图漂移并保存初始图拓扑,作者选用了 anchor loss 办法的衡量学习进行正则化。

CEC[14]

万字长文带你入门增量学习

CEC,即 Continually Evolving Classifier,是建立在 TOPIC 之上的办法,其运用了图注意力网络。其间,初始图跟着传入的少数学习使命流不断迭代。作为一项新颖的增量学习使命,本文办法重视现已存在的语义相关类别,以构建分类器权重。终究,经过进一步从根底类别数据生成伪增量学习使命,增强了对新类别的学习才能。但是,CEC 整体的的重心更多地放在新类别的学习上,而不是保持原有类别的体现,这终究会加剧“健忘”。

Clustering-Based Methods

IDL-VQ[15]

增量深度学习向量化运用高斯混合将学习类别的视觉特征量化为参阅向量质心。随后,任何传入的新类都由它们与现有参阅向量的 soft similarity 进行表明。为了削减灾难性忘记的现象,作者额定存储了每个类别的一个样本并在增量练习的期间进行回放。

SA-KD[16]

万字长文带你入门增量学习

SA-KD 是一种语义感知常识蒸馏的办法,其运用 K-means 聚类来构建参阅类质心,然后表明新的输入。终究,经过将表明投影到语义词嵌入空间,以进一步促进与基类的关联。

SUB-REG[17]

万字长文带你入门增量学习

子空间正则化经过运用 QR 分化将根底分类器的嵌入投影到正交子空间。随后,丈量新类输入和子空间向量之间的 soft similarity 以表明新类权重。终究,为了缓解权重漂移,额定引进了 L1 丢失进行权重调理。

FACT[18]

万字长文带你入门增量学习

Forward-Compatible Training 是当时小样本增量学习的 SOTA。论文作者首要展现了 few-shot 学习器的特征空间被预练习(即根底)类彻底占有,没有为未来(即few-shot)类留下空间,因而约束了前向兼容性。为此,他们建议一起将输入图画分配给与基类正交的单独集群,然后有用地为新类别保存空间。终究,经过结合混合增强,FACT 有用进步了根底类和新类的功能。

Architectural Methods

FSLL[19]

万字长文带你入门增量学习

Few-shot Lifelong Learning 的做法是从模型架构中挑选一些权重来微调增量学习使命。如此一来,不只能够约束模型容量一起避免过拟合,还能经过最小化学习使命之间的干扰来避免忘记。终究,结合 L1 丢失,FSLL 在多个基准测验中明显优于依据图架构的 TOPIC 办法。

C-FSCIL[20]

万字长文带你入门增量学习

Constrained-FSCIL 是 CVPR 2022 新提出的一项小样本增量学习技能。作者运用带有传入使命流的新颖分类器嵌入来扩展架构。在这个过程中,经过在学习到的嵌入中施加准正交性,有用地削减了使命之间的干扰,直接缓解了忘记现象。

万字长文带你入门增量学习

自监督增量学习

依据自监督办法的增量学习首要有三种首要范式:

  • Pre-training

  • Auxiliary-training

  • Main-training

下面就这三块简略聊聊。

Pre-training

Pre-training 首要便是在增量学习使命开端之前先对骨干网络预练习一波,咱们能够了解为是一种“预热”操作。这方面的研讨首要是建立在自监督预练习能够明显削减后续(搬迁)学习使命中对标签监督的需求的主意之上。

SSL-OCL[21]

万字长文带你入门增量学习

用于在线继续学习的自监督学习(SSL-OCL)办法提议在经过自监督进行增量练习之前预练习骨干网络的权重。经过这种办法,作者旨在充分运用预练习数据集带来的搬迁学习才能。经过选用 MoCo-V2 和 SwAV 等办法的自监督预练习办法,本文办法取得了功能上的进步。

Auxiliary-training

辅佐练习指的是在练习期间用自监督的办法供给监督信号,以取得更具辨别力的特征空间。这类办法建立在自监督学习使命能够向学习者供给额定的监督信号以避免过拟合的主意之上。

PASS[22]

万字长文带你入门增量学习

Prototype-Augmented Self-Supervision(PASS) 是一种依据正则化的增量学习技能。该模型优化了每个增量类的单个原型,其间原型是经过原始标签进行监督学习的。为了进步模型的泛化才能并避免过拟合现象,作者引进了更多的数据增强技巧。例如,选用自监督标签增强(SLA)生成原始输入的四种不同改换视点([0, 90, 180, 270]),然后将其用作额定的前置文本使命来区分模型。作者展现了这种办法减轻了对从前学习的类的过度拟合,然后取得了更好的成果。

Main-training

这是一种彻底依据自监督学习方针进行练习的办法,并在练习后经过线性探测对其进行评价。此类办法首要的中心思想是认为自监督能够彻底替代人工标签。

Buffer-SSL[23]

万字长文带你入门增量学习

Buffer-SSL 即缓冲自监督学习,是一种依据回忆的办法,它是在现成的自监督算法 SimSiam 进行扩展的并推行到增量学习使命傍边。SimSiam 的一个首要坏处是无法保存曾经学到的常识,因而 Buffer-SSL 为其补充了一个用于回放的内存缓冲区。一种简略的办法是将一切示例存储在内存中,可是这会导致内存开支太大,并且是关于视频帧这种帧之间存在高度的冗余性。为此,作者只存储簇质心,这削减了内存大小并增加了内存可扩展性。经过构建缓冲区能够明显缓解自监督表明的忘记。

LUMP[24]

万字长文带你入门增量学习

Lifelong Unsupervised Mixup 也是一种依据回忆的办法,运用混合增强来减轻健忘。具体来说,网络经过学习将输入实例与存储在内存中的从前学习使命中用到的的实例进行混合。这种思想比较简略,说白了便是回放此类示例来达到削减忘记并进步功能的意图。

CaSSLe[25]

万字长文带你入门增量学习

CaSSLe 是一种依据正则化的自监督增量学习办法。由于存储来自从前学习使命的数据会导致内存功率低下并且或许侵略隐私的动机,本文办法转而学习在当时模型和过去模型之间提取自监督的表明。其间,蒸馏以猜测办法执行,当时模型的特征会被投影到从前模型的特征空间。

PFR[26]

万字长文带你入门增量学习

PFR,即投影函数正则化同样是一种依据正则化的技能,与 CaSSLe 十分类似。作者运用依据蒸馏的方针扩展了 Barlow-Twins 办法,学习将当时的视觉表明投射到从前的模型表明。此外,论文展现了具有 PFR 方针的 Barlow-Twins 体现出更低的忘记和更高的准确性。

万字长文带你入门增量学习

Incremental Learning with Self-Supervision

局限性

尽管上述三种高效的增量学习范式取得了必定的成就,但本身依然存在一些局限性,接下来让咱们简略的剖析一波。

半监督

依据半监督范式的增量学习能够经过伪监督的办法运用部分符号数据。但是,伪标签的质量部分依然取决于符号数据的数量和质量。为此,这些模型依然需求供给很多标签才干正常作业,因而并没有从根本上处理问题。

不能了解的小伙伴能够考虑下,伪标签是怎样得到的?还不是得练习出一个根底模型出来,这个模型练习得欠好打出来的伪标签只会让模型体现得更糟糕。

此外,伪标签自带的噪声问题也会跟着时间逐渐累计,尤其是关于长增量学习序列的使命来说更是丧命的。一种潜在的补救措施是从伪标签转向伪梯度,可是梯度估量也或许随时间推移而产生改动。已然如此,是否存在一种没有任何办法的伪监督的状况下能够直接经过输入核算更新规范化参数的办法呢?让咱们后边揭晓。

小样本

小样本学习首要触及到在增量练习钱和增量练习期间均会运用到标签信息。其间,预练习部分的标签复杂度特别高,究竟它前期依然需求用到很多的元数据样本,这关于医学成像或视觉异常检测等这类数据匮乏的范畴来说,严峻约束了它们的作用。

此外,小样本学习范式在增量学习过程中经过冻结骨干网络的权重以避免过拟合新晋少数样本的现象。尽管作用很好,但这种做法并不天然,由于人类是具有十分强大的泛化功能,能够运用很少的样本进行学习,例如看过一次的东西大部分人就能够记住这是件什么物品。

自监督

当自监督用于预练习或辅佐练习时,自监督增量学习器的标签复杂性与普通增量学习器适当。运用自监督作为仅有的监督信号是在练习期间彻底省略标签的要害。但是,单纯的自监督增量学习需求一个单独的符号线性探测阶段用于准确的评价模型迭代的作用,然后约束了它们的适用性。

此外,增量学习的自监督范式彻底依靠于依据比照学习的办法来提取监督信号,例如 MoCo 等办法。但是,随依据掩码重建的 MAE 办法的提出,表明晰依据重建的方针显然是优于依据比照学习所得到的的方针,这不失为一个新的探究方向。

展望

经过对以上几种增量学习办法的剖析,咱们能够进一步总结出更具有实际意义的一些可研讨方向。

Mixed-Supervised Learning

混合监督学习在非增量学习是挺常见的一种办法,例如 ECCV 2020 中就呈现过一篇《When does self-supervision improve few-shot learning?》的文章,作者便结合了自监督和小样本学习。

万字长文带你入门增量学习

别的,也有半监督+小样本结合的监督办法,宣布在 NeurIPS 2019 上的 《Learning to Self-Train for Semi-Supervised Few-Shot Classification》。因而,咱们是否能够将这种思路借鉴到增量学习使命傍边去呢?

万字长文带你入门增量学习

Incremental Dense Learning

上面咱们所列举的大多数例子均是环绕图画分类使命打开的。但是,关于语义切割这种密集型的猜测使命而言,怎么处理标签问题是一个扎手的问题,究竟为图画中的每一个像素都赋予一个新的语义类别是个十分苦楚的作业,还真是谁行谁上。这儿首要进行尝试的作业或许是 ICCV 2019 上的 《Recall: Replay-based continual learning in semantic segmentation》,作者经过为旧类重新创建不再可用的数据并概述布景类的内容修复计划来处理这些问题。

万字长文带你入门增量学习

一种潜在的处理计划能够考虑引进弱监督的办法对增量方针进行切割,例如宣布在 CVPR 2022 上的这篇文章《Incremental learning in semantic segmentation from image labels》便触及到了。但是,与惯例的切割模型相对,这种办法目前的功能还十分有限,咱们能够看看怎么去进步它。

万字长文带你入门增量学习

Incremental Active Learning

在自动学习中,学习代理会挑选最有影响力的示例,由人类专家进行注释。这明显降低了符号本钱,由于只需一小部分示例足以练习一个好的模型。这方面的代表作业有《Towards robust and reproducible active learning using neural networks》,宣布在 CVPR 2022 上。

奇特的是,自动学习在增量学习中简直没有任何运用,你敢信任吗?但是,这种办法能够协助挑选一小撮典范来辅佐半监督或小样本监督范式的增量学习,无论是从预练习还是增量练习的视点,值得一试。

Incremental Object Discovery

关于人类而言,咱们简直能够在不需求任何监督的前提下,展现出惊人的发现前所未见物体的才能,简直不费吹灰之力便能够对新方针进行分组。但是,现有的增量学习办法遍及没有发现新方针的才能,简直一切方针都需求被符号,哪怕是 few-shot.

但是,咱们知道,这其实并不实际,究竟真实世界每天都会呈现千奇百怪的新生物体。为此,严格意义上来说,增量学习不只需求具有从有限的符号样本中进行监督学习,还要有挖掘新方针的才能。因而,未来的一个终极研讨方针必定是朝着类人方向跨进的,让咱们拭目而待!

进阶

PyCIL[27]

万字长文带你入门增量学习

PyCIL 是一个依据 Pytorch 构建的类别增量学习结构,其间不只包含了如 EWC、iCaRL 等一批前期的经典代表性办法,还包含了一些最新的 SOTA 等级的 Class-IL 算法,期望能够协助一些期望了解和研讨相关范畴的学者。目前该算法工具箱依据 MIT 协议开源,十分鼓舞咱们尝试!

Awesome IL Algorithms[28]

<Awesome Incremental Learning / Lifelong learning> 是一个继续更新的关于增量学习的库房,咱们如果需求查阅最新的论文,能够及时订阅。

Survey

  • Deep Class-Incremental Learning: A Survey (arXiv 2023)

  • A Comprehensive Survey of Continual Learning: Theory, Method and Application (arXiv 2023)

  • Continual Learning of Natural Language Processing Tasks: A Survey (arXiv 2022)

  • Continual Learning for Real-World Autonomous Systems: Algorithms, Challenges and Frameworks (arXiv 2022)

  • Recent Advances of Continual Learning in Computer Vision: An Overview (arXiv 2021)

  • Class-incremental learning: survey and performance evaluation (TPAMI 2022)

  • A continual learning survey: Defying forgetting in classification tasks (TPAMI 2021)

Papers

  • Online Bias Correction for Task-Free Continual Learning (ICLR2023)

  • Sparse Distributed Memory is a Continual Learner (ICLR2023)

  • Continual Learning of Language Models (ICLR2023)

  • Progressive Prompts: Continual Learning for Language Models without Forgetting (ICLR2023)

  • Is Forgetting Less a Good Inductive Bias for Forward Transfer? (ICLR2023)

  • Online Boundary-Free Continual Learning by Scheduled Data Prior (ICLR2023)

  • Incremental Learning of Structured Memory via Closed-Loop Transcription (ICLR2023)

  • Better Generative Replay for Continual Federated Learning (ICLR2023)

  • 3EF: Class-Incremental Learning via Efficient Energy-Based Expansion and Fusion (ICLR2023)

  • Progressive Voronoi Diagram Subdivision Enables Accurate Data-free Class-Incremental Learning (ICLR2023)

  • Learning without Prejudices: Continual Unbiased Learning via Benign and Malignant Forgetting (ICLR2023)

  • Building a Subspace of Policies for Scalable Continual Learning (ICLR2023)

  • A Model or 603 Exemplars: Towards Memory-Efficient Class-Incremental Learning (ICLR2023)

  • Continual evaluation for lifelong learning: Identifying the stability gap (ICLR2023)

  • Continual Unsupervised Disentangling of Self-Organizing Representations (ICLR2023)

  • Warping the Space: Weight Space Rotation for Class-Incremental Few-Shot Learning (ICLR2023)

  • Neural Collapse Inspired Feature-Classifier Alignment for Few-Shot Class-Incremental Learning (ICLR2023)

  • On the Soft-Subnetwork for Few-Shot Class Incremental LearningOn the Soft-Subnetwork for Few-Shot Class Incremental Learning (ICLR2023)

  • Task-Aware Information Routing from Common Representation Space in Lifelong Learning (ICLR2023)

  • Error Sensitivity Modulation based Experience Replay: Mitigating Abrupt Representation Drift in Continual Learning (ICLR2023)

  • Neural Weight Search for Scalable Task Incremental Learning (WACV2023)

  • Attribution-aware Weight Transfer: A Warm-Start Initialization for Class-Incremental Semantic Segmentation (WACV2023)

  • FeTrIL: Feature Translation for Exemplar-Free Class-Incremental Learning (WACV2023)

  • Sparse Coding in a Dual Memory System for Lifelong Learning (AAAI2023)

总结

增量学习的方针是在动态和开放的环境中,使模型能够在保存已有常识的根底上,不断学习新的类别常识。能够说,如果没有堆集所学常识并依据已有的常识来逐渐学习更多常识的才能,该体系并不能称之为一个真实意义上的智能体系。

经过对本文的阅览了解,信任咱们现已对增量学习有了必定的知道。总的来说,本文首要向咱们介绍了三种对标签高效的增量学习办法,包含半监督、小样本和自监督。其次,咱们着重剖析了现有办法的局限性以及给出了一些建议性的意见。终究,为了让各位小伙伴能够完成完整的闭环,咱们还额定供给了必要的增量学习结构和一些最新的论文资料供咱们进一步实践和学习。在可预知的未来,咱们也不难猜测,增量学习必将更多的向下游使命涌入,包含但不只限于增量方针检测、增量语义切割以及增量视频剖析等。

References

[1] Towards Label-Efficient Incremental Learning: arxiv.org/pdf/2302.00…

[2] CNNL: dl.acm.org/doi/abs/10.…

[3] DistillMatch: t.co/1sdMip6kuw,

[4] LWF: arxiv.org/abs/1606.09…

[5] ORDisCo: openaccess.thecvf.com/content/CVP…,

[6] MetaCo: arxiv.org/abs/2110.01…

[7] PGL: arxiv.org/pdf/2201.09…

[8] DMC: openaccess.thecvf.com/content\_WA…

[9] CIL-QUD: openreview.net/pdf?id=oLvl…

[10] CoTTA: openaccess.thecvf.com/content/CVP…

[11] LAME: openaccess.thecvf.com/content/CVP…

[12] anchor loss: openaccess.thecvf.com/content\_CV…

[13] TOPIC: www.ecva.net/papers/eccv…

[14] CEC: openaccess.thecvf.com/content/CVP…

[15] IDL-VQ: openreview.net/pdf?id=3SV-…

[16] SA-KD: openaccess.thecvf.com/content/CVP…

[17] SUB-REG: openreview.net/forum?id=bo…

[18] FACT: openaccess.thecvf.com/content/CVP…

[19] FSLL: ojs.aaai.org/index.php/A…

[20] C-FSCIL: openaccess.thecvf.com/content/CVP…

[21] SSL-OCL: www.bmvc2021-virtualconference.com/assets/pape…

[22] PASS: openaccess.thecvf.com/content/CVP…

[23] Buffer-SSL: www.ecva.net/papers/eccv…

[24] LUMP: openreview.net/forum?id=9H…

[25] CaSSLe: arxiv.org/abs/2112.04…

[26] PFR: openaccess.thecvf.com/content/CVP…

[27] PyCIL: github.com/G-U-N/PyCIL

[28] Awesome IL Algorithms: github.com/xialeiliu/A…

本文仅做学术分享,如有侵权,请联系删文。

欢迎重视大众号CV技能指南,专心于核算机视觉的技能总结、最新技能盯梢、经典论文解读、CV招聘信息。

【技能文档】《从零搭建pytorch模型教程》122页PDF下载

QQ沟通群:444129970。群内有大佬负责解答咱们的日常学习、科研、代码问题。

模型布置沟通群:732145323。用于核算机视觉方面的模型布置、高功能核算、优化加速、技能学习等方面的沟通。

其它文章

深度了解变分自编码器(VAE) | 从入门到精通

核算机视觉入门1v3辅导班

核算机视觉沟通群

用于超大图画的练习战略:Patch Gradient Descent

CV小常识评论与剖析(5)到底什么是Latent Space?

【免费送书活动】关于语义切割的亿点考虑

新计划:从错误中学习,点云切割中的自我规范化层次语义表明

经典文章:Transformer是怎么进军点云学习范畴的?

CVPR 2023 Workshop | 首个大规划视频全景切割竞赛

怎么更好地应对下游小样本图画数据?不平衡数据集的建模的技巧和策

Transformer沟通群

经典文章:Transformer是怎么进军点云学习范畴的?

CVPR 2023 Workshop | 首个大规划视频全景切割竞赛

怎么更好地应对下游小样本图画数据?不平衡数据集的建模的技巧和策

U-Net在2022年相关研讨的论文引荐

用少于256KB内存完成边缘练习,开支不到PyTorch千分之一

PyTorch 2.0 重磅发布:一行代码提速 30%

Hinton 最新研讨:神经网络的未来是前向-前向算法

聊聊核算机视觉入门

FRNet:上下文感知的特征强化模块

DAMO-YOLO | 超越一切YOLO,兼顾模型速度与精度

《医学图画切割》综述,胪陈六大类100多个算法

怎么高效完成矩阵乘?万文长字带你从CUDA初学者的视点入门

近似乘法对卷积神经网络的影响

BT-Unet:医学图画切割的自监督学习结构

语义切割该怎么走下去?

轻量级模型规划与布置总结

从CVPR22动身,聊聊CAM是怎么激活咱们文章的热度!

入门必读系列(十六)经典CNN规划演变的要害总结:从VGGNet到EfficientNet

入门必读系列(十五)神经网络不work的原因总结

入门必读系列(十四)CV论文常见英语单词总结

入门必读系列(十三)高效阅览论文的办法

入门必读系列(十二)池化各关键与各办法总结

TensorRT教程(三)TensorRT的装置教程

TensorRT教程(一)初次介绍TensorRT

TensorRT教程(二)TensorRT进阶介绍