continual-learning

continual-learning

PyTorch 在三种不同场景中实现各种持续学习方法

此项目实现了在增量学习场景中的PyTorch深度神经网络实验,支持学术设置下的分类问题,且可进行更加灵活的无任务增量学习实验。项目提供了演示脚本和详细的安装指导,适合多种经典方法的性能对比和自定义实验。

Continual LearningPyTorchNeurIPSincremental learningSynaptic IntelligenceGithub开源项目

持续学习

DOI

这是一个基于PyTorch实现的持续学习实验,用于深度神经网络,详细描述在以下文章中:

此代码库主要支持学术持续学习设置中的实验,即将一个基于分类的问题分成多个不重叠的上下文 (或任务)并需要依次学习。同时也提供了一些支持,用于运行更灵活的,无任务边界的持续学习实验 ,随着上下文间的逐步过渡。

早期版本

早期版本的代码可以在 此分支找到。 该版本的代码用于上面文章中两篇预印本描述的持续学习实验:

安装及要求

当前版本的代码已在Fedora操作系统的Python 3.10.4上测试过, 及以下版本的PyTorch和Torchvision:

  • pytorch 1.11.0
  • torchvision 0.12.0

进一步的Python包在requirements.txt中列出。 假设Python和pip已配置好,可以使用以下命令安装这些包:

pip install -r requirements.txt

此代码库中的代码本身不需要安装,但需要将一些脚本设置为可执行:

chmod +x main*.py compare*.py all_results.sh

NeurIPS教程“终身学习机器”

此代码库用于 NeurIPS 2022教程“终身学习机器”。 关于如何重新运行此教程中介绍的实验的详细信息及说明,请参见NeurIPS_tutorial.md文件。

演示

演示1:单个持续学习实验
./main.py --experiment=splitMNIST --scenario=task --si

这将运行一个单个的持续学习实验: 使用学术持续学习设置在Split MNIST的任务增量学习场景中使用突触智能法。 关于数据、网络、训练进展及生成的输出的信息将打印到屏幕上。 在标准台式电脑上的预期运行时间约为6分钟,有GPU时约为3分钟。

演示2:持续学习方法的比较
./compare.py --experiment=splitMNIST --scenario=task

这将运行一系列持续学习实验, 比较在Split MNIST的任务增量学习场景中各种方法的性能。 关于不同实验的详细信息、进展及生成的输出(例如,一个摘要pdf)将打印到屏幕上。 在标准台式电脑上的预期运行时间约为100分钟,有GPU时约为45分钟。

重新运行文章中的比较实验

all_results.sh脚本提供了逐步说明,帮助重新运行实验及重新创建文章“三种增量学习类型”中报告的表格和图形。

尽管可以直接运行此脚本,但这将耗费很长时间,可能需要将实验并行化。

运行自定义实验

学术持续学习设置

在学术持续学习设置中运行自定义的单个实验可以使用main.py。 此脚本的主要选项有:

  • --experiment: 如何构建上下文集?(splitMNIST|permMNIST|CIFAR10|CIFAR100)
  • --contexts: 有多少上下文?
  • --scenario: 根据哪种场景?(task|domain|class)

运行特定方法可使用如下命令:

  • 独立网络:./main.py --separate-networks
  • 上下文依赖门控 (XdG):./main.py --xdg
  • 弹性权重合并 (EWC):./main.py --ewc
  • 突触智能 (SI):./main.py --si
  • 无遗忘学习 (LwF):./main.py --lwf
  • 功能性记忆回顾正则化 (FROMP):./main.py --fromp
  • 深度生成回放 (DGR):./main.py --replay=generative
  • 脑启发回放 (BI-R):./main.py --brain-inspired
  • 经验回放 (ER):./main.py --replay=buffer
  • 平均梯度记忆 (A-GEM):./main.py --agem
  • 生成分类器:./main.py --gen-classifier
  • 增量分类与表示学习 (iCaRL):./main.py --icarl

运行基线模型(参见文章详情):

  • 无 ("下目标"):./main.py
  • 联合 ("上目标"):./main.py --joint

更多选项的信息:./main.py -h。 代码支持多种上述方法的组合。 同样也可以通过混合不同方法的组件创建自定义方法,尽管并非所有可能的组合都已测试。

更灵活的、无任务边界的持续学习实验

在更灵活的无任务边界的持续学习设置中运行自定义的单个实验可以使用 main_task_free.py。此脚本的主要选项有:

  • --experiment: 如何构建上下文集?(splitMNIST|permMNIST|CIFAR10|CIFAR100)
  • --contexts: 有多少上下文?
  • --stream: 如何在上下文之间过渡?(fuzzy-boundaries|academic-setting|random)
  • --scenario: 根据哪种场景?(task|domain|class)

更多选项的信息:./main_task_free.py -h。此脚本支持多种上述的持续学习方法,但目前并非全部支持。一些方法已略作修改以适应无已知上下文边界的情况。 特别是,通常在上下文边界处执行某种合并操作的方法,现在则每X次迭代执行一次这种操作,X通过--update-every选项设置。

训练过程中的动态图表

通过此代码可以在训练过程中实时跟踪进度。此功能需要visdom,可按如下方式安装:

pip install visdom

在运行实验之前,应从命令行启动visdom服务器:

python -m visdom.server

visdom服务器现已启动,可以在你的浏览器中通过http://localhost:8097访问(图表将显示在那里)。调用./main.py./main_task_free.py时应添加标志 --visdom以启用实时图表。

关于visdom的更多信息请参见 https://github.com/facebookresearch/visdom

引用

如果你在研究中使用了此代码,请考虑引用主文章:

@article{vandeven2022three,
  title={Three types of incremental learning},
  author={van de Ven, Gido M and Tuytelaars, Tinne and Tolias, Andreas S},
  journal={Nature Machine Intelligence},
  volume={4},
  pages={1185--1197},
  year={2022}
}

本文代码仓库也用于生成的两篇预印本的BibTeX引用如下。一般来说,建议引用官方发表版本的文章, 但对于未载入已发表文章中的内容,可以引用这两篇预印本。

@article{vandeven2019three,
  title={Three scenarios for continual learning},
  author={van de Ven, Gido M and Tolias, Andreas S},
  journal={arXiv preprint arXiv:1904.07734},
  year={2019}
}

@article{vandeven2018generative,
  title={Generative replay with feedback connections as a general strategy for continual learning},
  author={van de Ven, Gido M and Tolias, Andreas S},
  journal={arXiv preprint arXiv:1809.10635},
  year={2018}
}

致谢

此代码最初源于一个研究项目,该项目得到IBRO-ISN研究奖学金的支持, 由ERC资助的KeepOnLearning项目(参考编号101021347)资助, 由国家卫生研究院(NIH)资助(奖项编号R01MH109556(NIH/NIMH)和P30EY002520(NIH/NEI)), 由国防高级研究项目局(DARPA)终身学习机器(L2M)项目经过合同编号HR0011-18-2-0025资助以及 由情报高级研究项目活动(IARPA)通过内政部/ 内政商业中心(DoI/IBC)合同编号D16PC00003资助。 免责声明:本文所含观点和结论为作者个人意见,不应解释为代表NIH、DARPA、IARPA、DoI/IBC或美国政府的官方政策或背书,无论明示还是暗示。

编辑推荐精选

TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

Keevx

Keevx

AI数字人视频创作平台

Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。

即梦AI

即梦AI

一站式AI创作平台

提供 AI 驱动的图片、视频生成及数字人等功能,助力创意创作

扣子-AI办公

扣子-AI办公

AI办公助手,复杂任务高效处理

AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!

蛙蛙写作

蛙蛙写作

AI小说写作助手,一站式润色、改写、扩写

蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。

AI辅助写作AI工具蛙蛙写作AI写作工具学术助手办公助手营销助手AI助手
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

热门AI助手AI对话AI工具聊天机器人
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
下拉加载更多