mindcv

mindcv

基于MindSpore的开源计算机视觉框架

MindCV是一个开源计算机视觉框架,基于MindSpore构建。它集成了经典和最新的视觉模型,并提供预训练权重。通过模块化设计,支持定制化的数据处理、模型构建和训练流程。该框架适用于迁移学习和自定义CV任务开发,可在多种硬件平台上运行。MindCV注重效率与灵活性的平衡,同时提供了详细的教程和示例,方便开发者快速入门和应用。

MindCV计算机视觉深度学习框架预训练模型图像分类Github开源项目
<div align="center" markdown>

MindCV

CI PyPI - Python 版本 PyPI 文档 许可证 未解决的问题 PR 代码风格:black 导入:isort pre-commit

📝文档 | 🚀安装 | 🎁模型库 | 🎉更新日志 | 🐛问题反馈

英文 | 中文

</div>

简介

MindCV是一个基于MindSpore的开源计算机视觉研发工具箱。它收集了一系列经典和前沿的视觉模型,如ResNet和SwinTransformer,以及它们的预训练权重和训练策略。为了提高性能,还提供了自动增强等前沿方法。通过解耦的模块设计,可以轻松地将MindCV应用或适配到您自己的计算机视觉任务中。

以下是对应的mindcv版本和支持的mindspore版本。

mindcvmindspore
mainmaster
v0.4.02.3.0
0.3.02.2.10
0.22.0
0.11.8

主要特性

  • 易用性。 MindCV将视觉框架分解为各种可配置的组件。使用MindCV可以轻松自定义数据管道、模型和学习流程:

    >>> import mindcv # 创建数据集 >>> dataset = mindcv.create_dataset('cifar10', download=True) # 创建模型 >>> network = mindcv.create_model('resnet50', pretrained=True)

    用户可以通过一行命令定制和启动迁移学习或训练任务。

    # 一行命令实现迁移学习 python train.py --model=swin_tiny --pretrained --opt=adamw --lr=0.001 --data_dir=/path/to/data
  • 最先进的技术。 MindCV提供了各种基于CNN和Transformer的视觉模型,包括SwinTransformer。提供了它们的预训练权重和性能报告,帮助用户选择和重用合适的模型:

  • 灵活性和高效性。 MindCV基于MindSpore构建,MindSpore是一个可以在不同硬件平台(GPU/CPU/Ascend)上运行的高效深度学习框架。它支持高效的图模式和灵活的动态图模式。

模型库

使用MindCV训练的模型性能总结在这里,提供了训练配方和权重。

模型介绍和训练细节可以在configs下的每个子文件夹中查看。

安装

详见安装指南

快速入门

动手教程

要开始使用MindCV,请参阅快速入门,它将带您快速了解每个关键组件和训练/验证/预测流程。

以下是一些代码片段供您体验。

>>> import mindcv # 列出并查找预训练的视觉模型 >>> mindcv.list_models("swin*", pretrained=True) ['swin_tiny'] # 创建模型对象 >>> network = mindcv.create_model('swin_tiny', pretrained=True)
# 验证其准确性 python validate.py --model=swin_tiny --pretrained --dataset=imagenet --val_split=validation # {'Top_1_Accuracy': 0.80824, 'Top_5_Accuracy': 0.94802, 'loss': 1.7331367141008378}

图像分类演示

右键单击下面的图像并保存为dog.jpg

<p align="left"> <img src="https://yellow-cdn.veclightyear.com/ab5030c0/7e532063-ebb7-46a8-b0c9-35437d22ca0b.jpg" width=360 /> </p>

使用预训练的最先进模型对下载的图像进行分类:

python infer.py --model=swin_tiny --image_path='./dog.jpg' # {'Labrador retriever': 0.5700152, 'golden retriever': 0.034551315, 'kelpie': 0.010108651, 'Chesapeake Bay retriever': 0.008229004, 'Walker hound, Walker foxhound': 0.007791956}

排名第一的预测结果是拉布拉多猎犬,这正是这只可爱狗狗的品种。

训练

使用train.py可以轻松地在标准或自定义数据集上训练模型,其中训练策略(如数据增强、学习率调度)可以通过外部参数或yaml配置文件进行配置。

  • 单机训练
# 单机训练 python train.py --model=resnet50 --dataset=cifar10 --dataset_download

以上是在CPU/GPU/Ascend设备上使用CIFAR10数据集训练ResNet50的示例

  • 分布式训练

对于ImageNet等大型数据集,有必要在多个设备上进行分布式训练。这可以通过mpirun和MindSpore支持的并行特性来实现。

# 分布式训练 # 假设你有4个GPU/NPU mpirun -n 4 python train.py --distribute \ --model=densenet121 --dataset=imagenet --data_dir=/path/to/imagenet

注意:如果脚本由root用户执行,必须向mpirun添加--allow-run-as-root参数。

详细的参数定义可以在config.py中查看,也可以通过运行python train.py --help来查看。

要恢复训练,请设置--ckpt_path--ckpt_save_dir参数。最后停止的epoch的优化器状态(包括学习率)也会被恢复。

  • 配置和训练策略

你可以通过指定外部参数或编写yaml配置文件来配置你的模型和其他组件。以下是使用预设yaml文件进行训练的示例。

mpirun --allow-run-as-root -n 4 python train.py -c configs/squeezenet/squeezenet_1.0_gpu.yaml

预定义训练策略: 我们目前提供了20多个在ImageNet上达到最先进结果的训练方案。 详情请查看configs文件夹。 欢迎将这些训练策略应用到你自己的模型上以提高性能,只需修改yaml文件即可轻松完成。

  • 在ModelArts/OpenI平台上训练

要在ModelArtsOpenI云平台上运行训练:

1. 在云平台上创建一个新的训练任务。 2. 在网站UI界面上添加运行参数`config`并指定yaml配置文件的路径。 3. 在网站UI界面上添加运行参数`enable_modelarts`并设置为True。 4. 在网站上填写其他空白处并启动训练任务。

图模式和PyNative模式

默认情况下,训练流程train.py在MindSpore的图模式下运行,该模式通过编译静态图优化了效率和并行计算。 相比之下,PyNative模式优化了灵活性和易调试性。你可以修改参数--mode来切换到纯PyNative模式进行调试。

混合模式

带有mindspore.jit的PyNative模式是MindSpore中兼顾灵活性和效率的混合模式。要应用带有mindspore.jit的PyNative模式进行训练,请运行train_with_func.py,例如:

python train_with_func.py --model=resnet50 --dataset=cifar10 --dataset_download --epoch_size=10

注意:这是一个正在改进中的实验性功能。在MindSpore 1.8.1或更早版本上不稳定。

验证

要评估模型性能,请运行validate.py

# 验证训练好的检查点 python validate.py --model=resnet50 --dataset=imagenet --data_dir=/path/to/data --ckpt_path=/path/to/model.ckpt

训练时验证

你也可以通过启用--val_while_train选项在训练过程中跟踪验证准确率。

python train.py --model=resnet50 --dataset=cifar10 \ --val_while_train --val_split=test --val_interval=1

每个epoch的训练损失和验证准确率将保存在{ckpt_save_dir}/results.log中。

更多关于训练和验证的示例可以在examples中查看。

教程

我们提供以下jupyter notebook教程来帮助用户学习使用MindCV。

模型列表

目前,MindCV支持以下列出的模型系列。更多带有预训练权重的模型正在开发中,将很快发布。

<details open markdown> <summary> 支持的模型 </summary> * 大规模迁移ResNetV2(BiT) - https://arxiv.org/abs/1912.11370 * ConvNeXt - https://arxiv.org/abs/2201.03545 * ConViT(软卷积归纳偏置视觉Transformer)- https://arxiv.org/abs/2103.10697 * DenseNet - https://arxiv.org/abs/1608.06993 * DPN(双路径网络) - https://arxiv.org/abs/1707.01629 * EfficientNet(MBConvNet系列)https://arxiv.org/abs/1905.11946 * EfficientNet V2 - https://arxiv.org/abs/2104.00298 * GhostNet - https://arxiv.org/abs/1911.11907 * GoogLeNet - https://arxiv.org/abs/1409.4842 * Inception-V3 - https://arxiv.org/abs/1512.00567 * Inception-ResNet-V2和Inception-V4 - https://arxiv.org/abs/1602.07261 * MNASNet - https://arxiv.org/abs/1807.11626 * MobileNet-V1 - https://arxiv.org/abs/1704.04861 * MobileNet-V2 - https://arxiv.org/abs/1801.04381 * MobileNet-V3(具有高效头部的MBConvNet) - https://arxiv.org/abs/1905.02244 * NASNet - https://arxiv.org/abs/1707.07012 * PNasNet - https://arxiv.org/abs/1712.00559 * PVT(金字塔视觉Transformer) - https://arxiv.org/abs/2102.12122 * PoolFormer模型 - https://github.com/sail-sg/poolformer * RegNet - https://arxiv.org/abs/2003.13678 * RepMLP https://arxiv.org/abs/2105.01883 * RepVGG - https://arxiv.org/abs/2101.03697 * ResNet(v1b/v1.5) - https://arxiv.org/abs/1512.03385 * ResNeXt - https://arxiv.org/abs/1611.05431 * Res2Net - https://arxiv.org/abs/1904.01169 * ReXNet - https://arxiv.org/abs/2007.00992 * ShuffleNet v1 - https://arxiv.org/abs/1707.01083 * ShuffleNet v2 - https://arxiv.org/abs/1807.11164 * SKNet - https://arxiv.org/abs/1903.06586 * SqueezeNet - https://arxiv.org/abs/1602.07360 * Swin Transformer - https://arxiv.org/abs/2103.14030 * VGG - https://arxiv.org/abs/1409.1556 * Visformer - https://arxiv.org/abs/2104.12533 * Vision Transformer(ViT) - https://arxiv.org/abs/2010.11929 * Xception - https://arxiv.org/abs/1610.02357

有关模型性能和预训练权重的详细信息,请参见configs

支持的算法

<details open markdown> <summary> 支持的算法 </summary>
  • 数据增强
  • 优化器
    • Adam
    • AdamW
    • Lion
    • Adan(实验性)
    • AdaGrad
    • LAMB
    • Momentum
    • RMSProp
    • SGD
    • NAdam
  • 学习率调度器
    • 预热余弦衰减
    • 步进学习率
    • 多项式衰减
    • 指数衰减
  • 正则化
    • 权重衰减
    • 标签平滑
    • 随机深度(取决于网络)
    • Dropout(取决于网络)
  • 损失函数
    • 交叉熵(支持类别权重和辅助logit)
    • 二元交叉熵(支持类别权重和辅助logit)
    • 软交叉熵损失(如果使用mixup或标签平滑,则自动启用)
    • 软二元交叉熵损失(如果使用mixup或标签平滑,则自动启用)
  • 集成
    • 预热指数移动平均(EMA)
</details>

最新更新

  • 2024/1/17

发布 0.3.0 版本。我们将在未来的版本中停止支持 MindSpore 1.x。

  1. 新模型:
  2. 新特性:
    • 非对称损失和 JSD 交叉熵
    • 数据增强分割
    • 自定义 AMP
  3. 错误修复:
    • 由于分类器权重未完全删除,在创建预训练模型时传入 num_classes 可能会遇到错误。
  4. 重构:
    • 为了更好的理解,许多模型的名称已重构。
    • VisionTransformer脚本
    • 混合(PyNative+jit)模式训练的脚本
  5. 文档:
    • 如何从骨干网络提取多尺度特征的指南。
    • 如何在自定义数据集上微调预训练模型的指南。
  6. 重大变更:
    • 由于 MindSpore 1.x 已停止支持,我们将停止对其的支持。
    • 配置 filter_bias_and_bn 将被移除并重命名为 weight_decay_filter, 这是由于长期以来对 MindSpore 优化器的误解。 我们将迁移现有的训练配方,但 create_optimizer 函数的签名将不兼容, 旧版本的训练配方也将不兼容。详情请参见 PR/752

详细历史请参见 RELEASE

如何贡献

我们欢迎各种形式的贡献,包括问题报告和 PR,以使 MindCV 变得更好。

请参考 CONTRIBUTING.md 了解贡献指南。 请遵循模型模板和指南,贡献适合整体接口的模型 :)

许可证

本项目遵循 Apache License 2.0 开源许可证。

致谢

MindCV 是由 MindSpore 团队、西安电子科技大学和西安交通大学共同开发的开源项目。 衷心感谢所有参与的研究人员和开发人员在这个项目上的辛勤工作。 我们也感谢 OpenI 提供的计算资源。

引用

如果您在研究中发现本项目有用,请考虑引用:

@misc{MindSpore Computer Vision 2022, title={{MindSpore Computer Vision}:MindSpore Computer Vision Toolbox and Benchmark}, author={MindSpore Vision Contributors}, howpublished = {\url{https://github.com/mindspore-lab/mindcv/}}, year={2022} }

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多