支持多种模型与大规模训练配置的PyTorch开源预训练工具箱
MMPreTrain是基于PyTorch的开源预训练工具箱,提供丰富的训练策略和高效的模型分析工具。支持多种主干网络和预训练模型,如VGG、ResNet、Vision-Transformer等。具备强大的扩展性和高效性,适用于图像分类、图像描述、视觉问答等多种推理任务。最新版本v1.2.0增加了对LLaVA 1.5和RAM的支持,并提供Gradio界面。适用于多模态学习和自监督学习,支持大规模训练配置。提供详细的安装和教程文档,帮助用户快速入门。
MMPreTrain 是一个基于 PyTorch 的开源预训练工具箱,是 OpenMMLab 项目的一部分。该项目旨在提供一个强大的平台,支持多种训练策略和模型分析工具,以助力科研人员和工程师高效地开展预训练相关的研究。
MMPreTrain 工具箱具有以下几个显著功能:
用户可以通过以下简单步骤快速安装 MMPreTrain:
conda create -n open-mmlab python=3.8 pytorch==1.10.1 torchvision==0.11.2 cudatoolkit=11.3 -c pytorch -y conda activate open-mmlab pip install openmim git clone https://github.com/open-mmlab/mmpretrain.git cd mmpretrain mim install -e .
对于需要支持多模态模型的用户,还需安装附加依赖:
mim install -e ".[multimodal]"
MMPreTrain 提供了一系列教程,帮助新用户快速上手,包括:
这些指南可以帮助用户充分利用工具箱的功能,并为自己的研究提供支持。
在 MMPreTrain 的模型库中,用户可以找到多种模型的结果及具体配置,帮助进一步的研究和开发。
MMPreTrain 是一个社区驱动的项目,感谢来自各高校和公司的贡献者。项目接受各种形式的贡献,无论是实现新功能或算法,还是提供建设性的反馈。希望这个工具箱能够为研究社区提供一个灵活的平台,以实现已有方法和支持新的科研工作。
如果在研究中用到 MMPreTrain,请使用以下格式引用该项目:
@misc{2023mmpretrain, title={OpenMMLab's Pre-training Toolbox and Benchmark}, author={MMPreTrain Contributors}, year={2023} }
此项目采用 Apache 2.0 许可证发布,欢迎广大科研人员和开发人员使用和改进。