Composer是MosaicML公司开发的一个开源深度学习训练库,旨在简化大规模分布式训练工作流程,提高模型训练效率。它基于PyTorch构建,集成了许多最佳实践,使研究人员和工程师能够更轻松地进行大规模模型训练。
Composer的设计理念是"可扩展性和易用性的优化"。它抽象了底层的复杂性,如并行化技术、分布式数据加载和内存优化等,让用户可以专注于模型训练和实验,而不会因技术细节而减慢速度。
无论您是在单个GPU上训练,还是在512个GPU上训练,无论是处理50MB还是10TB的数据,Composer都能保持工作流程的简单性。它支持以下关键功能:
FSDP(完全分片数据并行): 对于大型模型,Composer集成了PyTorch的FullyShardedDataParallelism,使自定义模型的并行化变得简单高效。
弹性分片检查点: 支持在不同数量的GPU之间保存和恢复模型状态,提高了灵活性。
数据流式处理: 与MosaicML StreamingDataset集成,支持从云存储中动态下载和处理大型数据集。
Composer提供了简单的方法来定制训练过程,以满足特定需求:
回调系统: 允许用户在训练循环的任何点插入自定义逻辑。例如,可以用于监控内存使用、记录和可视化图像等。
加速算法: 提供了一系列算法加速技术,可以组合使用以提高训练速度。例如,在ImageNet上训练ResNet-50的速度提高了7倍。
Composer旨在自动化低级痛点,让用户专注于深度学习的重 要(和有趣)部分:
自动恢复: 训练中断?只需重新运行代码,Composer会自动从最新的检查点恢复。
CUDA内存溢出预防: 将microbatch大小设置为"auto",Composer会自动选择适合GPU的最大批量。
时间抽象: 使用自定义单位(epochs、batches、samples和tokens)在训练循环中指定持续时间。
Composer与许多流行的工具和平台集成,用于实验跟踪和数据流处理:
云集成: 检查点和日志功能原生支持远程存储和从云存储桶加载(OCI、GCP、AWS S3)。
实验跟踪: 支持Weights and Biases、MLFlow、CometML和neptune.ai等平台。
Composer可以通过pip安装:
pip install mosaicml
为简化环境设置,MosaicML还提供了一系列预构建的Docker镜像。强烈建议使用这些Docker镜像。
以下是一个使用Composer训练MNIST数据集的简单示例:
import torch import torch.nn as nn import torch.nn.functional as F from torchvision import datasets, transforms from torch.utils.data import DataLoader from composer import Trainer from composer.models import ComposerClassifier from composer.algorithms import LabelSmoothing, CutMix, ChannelsLast class Model(nn.Module): """用于MNIST的简单卷积神经网络架构""" def __init__(self, num_classes: int = 10): super().__init__() self.num_classes = num_classes self.conv1 = nn.Conv2d(1, 16, (3, 3), padding=0) self.conv2 = nn.Conv2d(16, 32, (3, 3), padding=0) self.bn = nn.BatchNorm2d(32) self.fc1 = nn.Linear(32 * 16, 32) self.fc2 = nn.Linear(32, num_classes) def forward(self, x): out = self.conv1(x) out = F.relu(out) out = self.conv2(out) out = self.bn(out) out = F.relu(out) out = F.adaptive_avg_pool2d(out, (4, 4)) out = torch.flatten(out, 1, -1) out = self.fc1(out) out = F.relu(out) return self.fc2(out) transform = transforms.Compose([transforms.ToTensor()]) dataset = datasets.MNIST("data", train=True, download=True, transform=transform) train_dataloader = DataLoader(dataset, batch_size=128) trainer = Trainer( model=ComposerClassifier(module=Model(), num_classes=10), train_dataloader=train_dataloader, max_duration="2ep", algorithms=[ LabelSmoothing(smoothing=0.1), CutMix(alpha=1.0), ChannelsLast(), ], ) trainer.fit()
这个例子展示了Composer的核心功能:
Composer已在多个大型项目中得到应用,展示了其在实际场景中的强大能力:
MPT基础系列: 这是一系列商业可用的开源大语言模型(LLMs),使用Composer进行优化训练。包括MPT-7B、MPT-7B-8k和MPT-30B等模型。
Mosaic扩散模型: 使用Composer,研究人员能够以不到$50,000的成本从头训练一个稳定扩散模型,相比原始成本节省了近70%。
replit-code-v1-3b: 这是一个专注于代码补全的2.7B因果语言模型,由Replit使用Mosaic AI训练平台在10天内训练完成。
BabyLLM: 这是第一个同时支持阿拉伯语和英语的LLM。这个7B参数的模型由MetaDialog在世界最大的阿拉伯语/英语数据集上训练,旨在改善客户支持工作流程。
BioMedLM: 这是MosaicML和斯坦福CRFM合作开发的生物医学领域专用LLM。
这些项目展示了Composer在各种规模和 领域的模型训练中的versatility和效率。从相对较小的专业模型到大规模的通用语言模型,Composer都能提供强大的支持。
Composer作为一个开源的深度学习训练框架,为研究人员和工程师提供了一个强大而灵活的工具,以简化大规模模型训练过程。它的核心优势在于:
通过使用Composer,用户可以显著提高训练效率,减少开发时间,并更容易地进行大规模实验。无论是在学术研究还是工业应用中,Composer都展现出了巨大的潜力。
随着深度学习领域的不断发展,像Composer这样的工具将在推动技术进步和实现更高效的AI模型训练中扮演越来越重要的角色。我们期待看到更多基于Composer的创新应用和突破性研究成果。
🔗 相关链接:
一站式AI创作平台
提供 AI 驱动的图片、视频生成及数字人等功能,助力创意创作
AI办公助手,复杂任务高效处理
AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!
AI数字人视频创作平台
Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。
AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI小说写作助手,一站式润色、改写、扩写
蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。