?本文介绍一篇《深度学习中的遗忘》的研究综述: 论文标题:A Comprehensive Survey of Forgetting in Deep Learning Beyond Continual Learning 综述论文地址:https://arxiv.org/abs/2307.09218 完整论文列表:https://github.com/EnnengYang/Awesome-Forgetting-in-Deep-Learning ?
「遗忘(Forgetting)是指之前获得的信息或知识的丢失或退化」。现有的关于遗忘的综述主要集中在持续学习上,然而,「遗忘也是深度学习的其他研究领域中普遍观察到的现象」。例如,遗忘在生成模型中由于生成器偏移而表现出来,在联邦学习中由于客户端之间数据分布异构而表现出来。解决遗忘包括几个挑战:平衡旧任务知识的保留与新任务的快速学习、管理具有冲突目标的任务干扰、以及防止隐私泄漏等。此外,大多数现有的关于持续学习的综述都默认遗忘总是有害的。相反,作者认为「遗忘是一把双刃剑,在某些情况下(如隐私保护场景)可能是有益的和可取的」。通过在更广泛的背景下探索遗忘,本综述旨在提供对这一现象的更细微的理解,并强调其潜在的优势。通过这项全面的综述,作者希望通过借鉴来自各种处理遗忘的领域的思想和方法来发现潜在的解决方案。通过超越传统的遗忘边界的分析,本综述希望在未来的工作中鼓励开发新的策略来减轻、利用甚至接受在实际应用中的遗忘。
遗忘是指机器学习系统中先前获取的信息或知识随着时间的推移而退化的现象。在神经网络的早期,重点关注的是静态数据集上的训练模型,因此在这些设置中,遗忘并不是一个重要问题。「灾难性遗忘」的概念首先由McCloskey和Cohen在1989年正式提出。他们证明,在不同任务上顺序训练的神经网络在学习新任务时往往会忘记以前学习的任务。这一观察结果强调了解决序列学习场景中遗忘问题的必要性。后来,解决遗忘问题被正式称为持续学习(continual learning,简称'CL')。如今,遗忘不仅在持续学习领域而且在更广泛的机器学习社区中引起了极大的关注,这已经发展成为整个机器学习领域的一个必需考虑问题。
在这篇综述中,作者根据具体的应用场景,将深度学习中的遗忘分为两类:「有害遗忘和有益遗忘」。当我们希望机器学习模型在适应新任务、领域或环境的同时保留以前学到的知识时,就会发生有害的遗忘。在这种情况下,防止和减少知识遗忘非常重要。相反,当模型包含可能导致隐私泄露的私人信息或当不相关信息阻碍新任务的学习时,就会出现有益的遗忘。在这些情况下,遗忘变得可取,因为它有助于保护隐私并通过丢弃不必要的信息来促进有效学习。
有害遗忘不仅在持续学习中被发现,而且在其他各个研究领域也被观察到,包括基础模型、域适应、测试时适应、元学习、生成模型、强化学习和联邦学习(foundation model, domain adaptation, test-time adaptation, meta-learning, generative model, reinforcement learning and federated learning)。现有的综述主要关注持续学习背景下的遗忘,他们常常忽视对其他相关研究领域的全面分析。这篇综述旨在通过概述不同学习场景中的遗忘(涵盖上述研究领域)来填补这一空白。
为了便于清晰和比较与遗忘相关的各种设置,下表中对有害遗忘进行了全面分析,并突出了不同设置之间的区别:
「问题设置」 | 「目标」 | 「遗忘的来源」 |
---|---|---|
持续学习 | 学习非平稳数据分布而不忘记之前的知识 | 训练期间数据分布漂移 |
基础模型 | 大规模未标记数据的无监督学习 | 数据分布在预训练和微调中发生了变化 |
域适应 | 适应目标域,同时保持源域的性能 | 目标域随时间顺序移动 |
测试时适应 | 减少训练和测试之间的分布差距 | 适应测试过程中的测试数据分布 |
元学习 | 学习适应新任务的知识 | 增量元学习新类/任务分布变化 |
生成模型 | 学习一个生成器来近似真实的数据分布 | 生成器漂移/数据分布漂移 |
强化学习 | 最大化累积奖励 | 状态,行动,奖励和状态动态转换 |
联邦学习 | 不共享数据的去中心化训练 | 模型平均;非独立同分布数据;数据分布的转换 |
综述论文里第2-9章分别详细阐述了上表中每个领域中如何解决遗忘,感兴趣的读者可阅读原文细节。
虽然大多数现存的研究工作普遍认为遗忘是有害的,但已经有工作认识到「在已学习的神经网络中忘记某些知识是有利的」。有益遗忘在两个主要场景中被证明是友好的:(1)选择性遗忘(selective forgetting),它有助于减轻过拟合和丢弃无用信息以提高模型泛化,以及(2)机器遗忘(machine unlearning),它可以防止数据隐私泄露。
为了便于比较,下表中提供了有益遗忘的比较分析,包含了上述不同的设置以供参考:
「问题设置」 | 「目标」 |
---|---|
减轻过拟合 | 通过选择性遗忘减轻训练数据的记忆 |
去偏或忘记无关信息 | 忘记有偏见的信息以获得更好的表现,或删除不相关的信息以学习新任务 |
机器遗忘 | 忘记一些指定的训练数据以保护用户隐私 |
综述论文里第10章详细阐述了上表中每个方向如何实现遗忘,感兴趣的读者可阅读原文细节。
解决遗忘问题面临着许多挑战,不同研究领域的挑战各不相同。这些挑战包括:
接下来,该综述展望了未来研究的几个潜在研究方向。
这篇综述从「有害的遗忘」和「有益的遗忘」两个角度讨论了深度学习中多个领域普遍存在的「遗忘」问题,以及对应的缓解遗忘或主动遗忘的策略。对深度学习中的「遗忘」问题感兴趣的读者可进一步阅读论文细节:
综述论文地址:https://arxiv.org/abs/2307.09218 完整论文列表:https://github.com/EnnengYang/Awesome-Forgetting-in-Deep-Learning 论文结构: