
实现超越SimCLR的简化自监督学习新方法
这个开源项目提供了一种无需对比学习和负样本分配的自监督学习方法,其性能超过了SimCLR。它支持轻松集成任何基于图像的神经网络,并利用未标记数据提升模型性能。该项目还支持批量规范化和组规范化替代方案,适用于定制化和分布式训练。
<img src="https://yellow-cdn.veclightyear.com/35dd4d3f/4ea2933a-8c98-4632-a289-b91a744fccf3.png" width="700px"></img>
<a href="https://arxiv.org/abs/2006.07733">一种令人惊讶的简单方法</a>的实际实现——一种自监督学习方法,它在无需对比学习和指定负样本对的情况下,达到了新的技术水平(超越SimCLR)。
这个仓库提供了一个模块,可以轻松地包装任何基于图像的神经网络(剩余网络、判别器、策略网络),以立即开始利用未标记的图像数据。
更新 1:现在有<a href="https://untitled-ai.github.io/understanding-self-supervised-contrastive-learning.html">新证据</a>表明批量归一化是使这种技术工作得很好的关键
更新 2:一篇<a href="https://arxiv.org/abs/2010.10241">新论文</a>成功将批量归一化替换为组归一化和权重标准化,驳斥了BYOL需要批量统计量才能工作
更新 3:终于,我们有了<a href="https://arxiv.org/abs/2102.06810">一些分析</a>来说明为什么这能起作用
<a href="https://www.youtube.com/watch?v=YPfUiOMYOEE">Yannic Kilcher的优秀解释</a>
现在,去拯救你的组织,不用再为标签付费了 :)
$ pip install byol-pytorch
只需插入你的神经网络,指定(1)图像尺寸以及(2)隐藏层的名称(或索引),其输出将用作用于自监督训练的潜在表示。
import torch from byol_pytorch import BYOL from torchvision import models resnet = models.resnet50(pretrained=True) learner = BYOL( resnet, image_size = 256, hidden_layer = 'avgpool' ) opt = torch.optim.Adam(learner.parameters(), lr=3e-4) def sample_unlabelled_images(): return torch.randn(20, 3, 256, 256) for _ in range(100): images = sample_unlabelled_images() loss = learner(images) opt.zero_grad() loss.backward() opt.step() learner.update_moving_average() # 更新目标编码器的移动平均 # 保存改进后的网络 torch.save(resnet.state_dict(), './improved-net.pt')
基本上就这些。经过大量训练后,剩余网络现在应能更好地完成其下游监督任务。
来自何恺明的<a href="https://arxiv.org/abs/2011.10566">新论文</a>表明,BYOL甚至不需要目标编码器是线上编码器的指数移动平均。我决定内置此选项,这样你可以通过将use_momentum标志设置为False轻松使用该变体进行训练。如果你采用此方法,则不再需要调用update_moving_average,如下例所示。
import torch from byol_pytorch import BYOL from torchvision import models resnet = models.resnet50(pretrained=True) learner = BYOL( resnet, image_size = 256, hidden_layer = 'avgpool', use_momentum = False # 关闭目标编码器的动量 ) opt = torch.optim.Adam(learner.parameters(), lr=3e-4) def sample_unlabelled_images(): return torch.randn(20, 3, 256, 256) for _ in range(100): images = sample_unlabelled_images() loss = learner(images) opt.zero_grad() loss.backward() opt.step() # 保存改进后的网络 torch.save(resnet.state_dict(), './improved-net.pt')
虽然超参数已经设置为论文中找到的最佳值,但你可以使用基础包装类的额外关键字参数来更改它们。
learner = BYOL( resnet, image_size = 256, hidden_layer = 'avgpool', projection_size = 256, # 投影大小 projection_hidden_size = 4096, # 投影和预测的MLP的隐藏维度 moving_average_decay = 0.99 # 目标编码器的移动平均衰减因子,已设置为论文推荐值 )
默认情况下,此库将使用来自SimCLR论文的增强(BYOL论文中也使用了)。但是,如果你想指定自己的增强管道,可以简单地通过augment_fn关键字传递你自己的自定义增强函数。
augment_fn = nn.Sequential( kornia.augmentation.RandomHorizontalFlip() ) learner = BYOL( resnet, image_size = 256, hidden_layer = -2, augment_fn = augment_fn )
在论文中,他们似乎保证其中一个增强的高斯模糊概率比另一个高。你也可以根据自己的喜好进行调整。
augment_fn = nn.Sequential( kornia.augmentation.RandomHorizontalFlip() ) augment_fn2 = nn.Sequential( kornia.augmentation.RandomHorizontalFlip(), kornia.filters.GaussianBlur2d((3, 3), (1.5, 1.5)) ) learner = BYOL( resnet, image_size = 256, hidden_layer = -2, augment_fn = augment_fn, augment_fn2 = augment_fn2, )
要获取嵌入或投影,你只需将return_embeddings = True标志传递给BYOL学习实例
import torch from byol_pytorch import BYOL from torchvision import models resnet = models.resnet50(pretrained=True) learner = BYOL( resnet, image_size = 256, hidden_layer = 'avgpool' ) imgs = torch.randn(2, 3, 256, 256) projection, embedding = learner(imgs, return_embedding = True)
该仓库现在提供了使用<a href="https://huggingface.co/docs/accelerate/index">🤗 Huggingface Accelerate</a>进行分布式训练的功能。你只需将你自己的Dataset传递给导入的BYOLTrainer
首先使用accelerate CLI设置分布式训练的配置
$ accelerate config
然后按如下所示制作你的训练脚本,比如在./train.py中
from torchvision import models from byol_pytorch import ( BYOL, BYOLTrainer, MockDataset ) resnet = models.resnet50(pretrained = True) dataset = MockDataset(256, 10000) trainer = BYOLTrainer( resnet, dataset = dataset, image_size = 256, hidden_layer = 'avgpool', learning_rate = 3e-4, num_train_steps = 100_000, batch_size = 16, checkpoint_every = 1000 # 改进后的模型将定期保存到./checkpoints文件夹 ) trainer()
然后再次使用accelerate CLI启动脚本
$ accelerate launch ./train.py
如果你的下游任务涉及分割,请查看以下仓库,该仓库将BYOL扩展到“像素”级学习。
https://github.com/lucidrains/pixel-level-contrastive-learning
@misc{grill2020bootstrap, title = {Bootstrap Your Own Latent: A New Approach to Self-Supervised Learning}, author = {Jean-Bastien Grill and Florian Strub and Florent Altché and Corentin Tallec and Pierre H. Richemond and Elena Buchatskaya and Carl Doersch and Bernardo Avila Pires and Zhaohan Daniel Guo and Mohammad Gheshlaghi Azar and Bilal Piot and Koray Kavukcuoglu and Rémi Munos and Michal Valko}, year = {2020}, eprint = {2006.07733}, archivePrefix = {arXiv}, primaryClass = {cs.LG} }
@misc{chen2020exploring, title={Exploring Simple Siamese Representation Learning}, author={Xinlei Chen and Kaiming He}, year={2020}, eprint={2011.10566}, archivePrefix={arXiv}, primaryClass={cs.CV} }


职场AI,就用扣子
AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!


多风格AI绘画神器
堆友平台由阿里巴巴设计团队创建,作为一款AI驱动的设计工具,专为设计师提供一站式增长服务。功能覆盖海量3D素材、AI绘画、实时渲染以及专业抠图,显著提升设计品质和效率。平台不仅提供工具,还是一个促进创意交流和个人发展的空间,界面友好,适合所有级别的设计师和创意工作者。


零代码AI应用开发平台
零代码AI应用开发平台,用户只需一句话简单描述需求,AI能自动生成小程序、APP或H5网页应用,无需编写代码。


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


AI论文写作指导平台
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号