基于PyTorch的图像分割神经网络Python库
该库的主要特点包括:
访问Read The Docs项目页面或阅读以下README,了解更多关于Segmentation Models Pytorch(简称SMP)库的信息
分割模型只是一个PyTorch nn.Module,可以像这样轻松创建:
import segmentation_models_pytorch as smp model = smp.Unet( encoder_name="resnet34", # 选择编码器,例如 mobilenet_v2 或 efficientnet-b7 encoder_weights="imagenet", # 使用`imagenet`预训练权重进行编码器初始化 in_channels=1, # 模型输入通道数(1用于灰度图像,3用于RGB等) classes=3, # 模型输出通道数(数据集中的类别数) )
所有编码器都有预训练权重。以与权重预训练期间相同的方式准备数据可能会给你带来更好的结果(更高的指标分数和更快的收敛)。如果你训练整个模型而不仅仅是解码器,这不是必需的。
from segmentation_models_pytorch.encoders import get_preprocessing_fn preprocess_input = get_preprocessing_fn('resnet18', pretrained='imagenet')
恭喜!你已完成!现在你可以使用你喜欢的框架来训练你的模型了!
以下是SMP支持的编码器列表。选择适当的编码器系列并点击展开表格,选择特定的编码器及其预训练权重(encoder_name
和encoder_weights
参数)。
编码器 | 权重 | 参数量, M |
---|---|---|
resnet18 | imagenet / ssl / swsl | 11M |
resnet34 | imagenet | 21M |
resnet50 | imagenet / ssl / swsl | 23M |
resnet101 | imagenet | 42M |
resnet152 | imagenet | 58M |
编码器 | 权重 | 参数量, M |
---|---|---|
resnext50_32x4d | imagenet / ssl / swsl | 22M |
resnext101_32x4d | ssl / swsl | 42M |
resnext101_32x8d | imagenet / instagram / ssl / swsl | 86M |
resnext101_32x16d | instagram / ssl / swsl | 191M |
resnext101_32x32d | 466M | |
resnext101_32x48d | 826M |
编码器 | 权重 | 参数量, M |
---|---|---|
timm-resnest14d | imagenet | 8M |
timm-resnest26d | imagenet | 15M |
timm-resnest50d | imagenet | 25M |
timm-resnest101e | imagenet | 46M |
timm-resnest200e | imagenet | 68M |
timm-resnest269e | imagenet | 108M |
timm-resnest50d_4s2x40d | imagenet | 28M |
timm-resnest50d_1s4x24d | imagenet | 23M |
编码器 | 权重 | 参数量, M |
---|---|---|
timm-res2net50_26w_4s | imagenet | 23M |
timm-res2net101_26w_4s | imagenet | 43M |
timm-res2net50_26w_6s | imagenet | 35M |
timm-res2net50_26w_8s | imagenet | 46M |
timm-res2net50_48w_2s | imagenet | 23M |
timm-res2net50_14w_8s | imagenet | 23M |
timm-res2next50 | imagenet | 22M |
编码器 | 权重 | 参数量(百万) |
---|---|---|
timm-gernet_s | imagenet | 6M |
timm-gernet_m | imagenet | 18M |
timm-gernet_l | imagenet | 28M |
编码器 | 权重 | 参数量(百万) |
---|---|---|
senet154 | imagenet | 113M |
se_resnet50 | imagenet | 26M |
se_resnet101 | imagenet | 47M |
se_resnet152 | imagenet | 64M |
se_resnext50_32x4d | imagenet | 25M |
se_resnext101_32x4d | imagenet | 46M |
编码器 | 权重 | 参数量(百万) |
---|---|---|
timm-skresnet18 | imagenet | 11M |
timm-skresnet34 | imagenet | 21M |
timm-skresnext50_32x4d | imagenet | 25M |
编码器 | 权重 | 参数量(百万) |
---|---|---|
densenet121 | imagenet | 6M |
densenet169 | imagenet | 12M |
densenet201 | imagenet | 18M |
densenet161 | imagenet | 26M |
编码器 | 权重 | 参数量(百万) |
---|---|---|
inceptionresnetv2 | imagenet / imagenet+background | 54M |
inceptionv4 | imagenet / imagenet+background | 41M |
xception | imagenet | 22M |
编码器 | 权重 | 参数量(百万) |
---|---|---|
efficientnet-b0 | imagenet | 4M |
efficientnet-b1 | imagenet | 6M |
efficientnet-b2 | imagenet | 7M |
efficientnet-b3 | imagenet | 10M |
efficientnet-b4 | imagenet | 17M |
efficientnet-b5 | imagenet | 28M |
efficientnet-b6 | imagenet | 40M |
efficientnet-b7 | imagenet | 63M |
timm-efficientnet-b0 | imagenet / advprop / noisy-student | 4M |
timm-efficientnet-b1 | imagenet / advprop / noisy-student | 6M |
timm-efficientnet-b2 | imagenet / advprop / noisy-student | 7M |
timm-efficientnet-b3 | imagenet / advprop / noisy-student | 10M |
timm-efficientnet-b4 | imagenet / advprop / noisy-student | 17M |
timm-efficientnet-b5 | imagenet / advprop / noisy-student | 28M |
timm-efficientnet-b6 | imagenet / advprop / noisy-student | 40M |
timm-efficientnet-b7 | imagenet / advprop / noisy-student | 63M |
timm-efficientnet-b8 | imagenet / advprop | 84M |
timm-efficientnet-l2 | noisy-student | 474M |
timm-efficientnet-lite0 | imagenet | 4M |
timm-efficientnet-lite1 | imagenet | 5M |
timm-efficientnet-lite2 | imagenet | 6M |
timm-efficientnet-lite3 | imagenet | 8M |
timm-efficientnet-lite4 | imagenet | 13M |
编码器 | 权重 | 参数量(百万) |
---|---|---|
dpn68 | imagenet | 11M |
dpn68b | imagenet+5k | 11M |
dpn92 | imagenet+5k | 34M |
dpn98 | imagenet | 58M |
dpn107 | imagenet+5k | 84M |
dpn131 | imagenet | 76M |
编码器 | 权重 | 参数量(百万) |
---|---|---|
vgg11 | imagenet | 9M |
vgg11_bn | imagenet | 9M |
vgg13 | imagenet | 9M |
vgg13_bn | imagenet | 9M |
vgg16 | imagenet | 14M |
vgg16_bn | imagenet | 14M |
vgg19 | imagenet | 20M |
vgg19_bn | imagenet | 20M |
SegFormer在Imagenet上预训练的骨干网络!可以与包中的其他解码器一起使用,您可以将混合视觉Transformer与Unet、FPN等结合使用!
限制:
编码器 | 权重 | 参数量(百万) |
---|---|---|
mit_b0 | imagenet | 3M |
mit_b1 | imagenet | 13M |
mit_b2 | imagenet | 24M |
mit_b3 | imagenet | 44M |
mit_b4 | imagenet | 60M |
mit_b5 | imagenet | 81M |
苹果公司的"亚毫秒级"骨干网络在Imagenet上预训练!可以与所有解码器一起使用。
注意:在官方GitHub仓库中,s0变体有额外的num_conv_branches,导致比s1有更多的参数。
编码器 | 权重 | 参数量(百万) |
---|---|---|
mobileone_s0 | imagenet | 4.6M |
mobileone_s1 | imagenet | 4.0M |
mobileone_s2 | imagenet | 6.5M |
mobileone_s3 | imagenet | 8.8M |
mobileone_s4 | imagenet | 13.6M |
* ssl
、swsl
- 在ImageNet上进行半监督和弱监督学习(仓库)。
Pytorch Image Models(简称timm)有许多预训练模型和接口,可以将这些模型用作smp中的编码器,但并非所有模型都受支持
features_only
功能支持的编码器总数:549
model.encoder
- 预训练的骨干网络,用于提取不同空间分辨率的特征model.decoder
- 取决于模型架构(Unet
/Linknet
/PSPNet
/FPN
)model.segmentation_head
- 最后一个块,用于生成所需数量的掩码通道(还包括可选的上采样和激活)model.classification_head
- 可选块,在编码器顶部创建分类头model.forward(x)
- 顺序地将x
通过模型的编码器、解码器和分割头(如果指定,还包括分类头)输入通道参数允许您创建可处理任意数量通道张量的模型。如果您使用来自imagenet的预训练权重 - 第一个卷积的权重将被重用。对于1通道情况,它将是第一个卷积层权重的总和,否则通道将使用如下方式填充权重:new_weight[:, i] = pretrained_weight[:, i % 3]
,然后用new_weight * 3 / new_in_channels
进行缩放。
model = smp.FPN('resnet34', in_channels=1) mask = model(torch.ones([1, 1, 64, 64]))
所有模型都支持aux_params
参数,默认设置为None
。如果aux_params = None
,则不创建分类辅助输出,否则模型不仅产生mask
,还产生形状为NC
的label
输出。分类头由GlobalPooling->Dropout(可选)->Linear->Activation(可选)层组成,可以通过aux_params
进行配置,如下所示:
aux_params=dict( pooling='avg', # 'avg'或'max'之一 dropout=0.5, # dropout比率,默认为None activation='sigmoid', # 激活函数,默认为None classes=4, # 定义输出标签的数量 ) model = smp.Unet('resnet34', classes=4, aux_params=aux_params) mask, label = model(x)
深度参数指定编码器中的下采样操作数量,因此如果指定较小的depth
,可以使模型更轻量。
model = smp.Unet('resnet34', encoder_depth=4)
PyPI 版本:
$ pip install segmentation-models-pytorch
从源代码安装最新版本:
$ pip install git+https://github.com/qubvel/segmentation_models.pytorch
Segmentation Models
包在图像分割比赛中被广泛使用。
这里你可以找到比赛名称、获胜者姓名以及他们解决方案的链接。
make install_dev # 创建 .venv,以开发模式安装 SMP
make fixup # 使用 Ruff 进行 格式化和代码检查
make table # 生成编码器表格并输出到标准输出
@misc{Iakubovskii:2019,
Author = {Pavel Iakubovskii},
Title = {Segmentation Models Pytorch},
Year = {2019},
Publisher = {GitHub},
Journal = {GitHub repository},
Howpublished = {\url{https://github.com/qubvel/segmentation_models.pytorch}}
}
项目在 MIT 许可证 下分发
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音 克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。
openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号