基于PyTorch的图像分割神经网络Python库
该库的主要特点包括:
访问Read The Docs项目页面或阅读以下README,了解更多关于Segmentation Models Pytorch(简称SMP)库的信息
分割模型只是一个PyTorch nn.Module,可以像这样轻松创建:
import segmentation_models_pytorch as smp model = smp.Unet( encoder_name="resnet34", # 选择编码器,例如 mobilenet_v2 或 efficientnet-b7 encoder_weights="imagenet", # 使用`imagenet`预训练权重进行编码器初始化 in_channels=1, # 模型输入通道数(1用于灰度图像,3用于RGB等) classes=3, # 模型输出通道数(数据集中的类别数) )
所有编码器都有预训练权重。以与权重预训练期间相同的方式准备数据可能会给你带来更好的结果(更高的指标分数和更快的收敛)。如果你训练整个模型而不仅仅是解码器,这不是必需的。
from segmentation_models_pytorch.encoders import get_preprocessing_fn preprocess_input = get_preprocessing_fn('resnet18', pretrained='imagenet')
恭喜!你已完成!现在你可以使用你喜欢的框架来训练你的模型了!
以下是SMP支持的编码器列表。选择适当的编码器系列并点击展开表格,选择特定的编码器及其预训练权重(encoder_name
和encoder_weights
参数)。
编码器 | 权重 | 参数量, M |
---|---|---|
resnet18 | imagenet / ssl / swsl | 11M |
resnet34 | imagenet | 21M |
resnet50 | imagenet / ssl / swsl | 23M |
resnet101 | imagenet | 42M |
resnet152 | imagenet | 58M |
编码器 | 权重 | 参数量, M |
---|---|---|
resnext50_32x4d | imagenet / ssl / swsl | 22M |
resnext101_32x4d | ssl / swsl | 42M |
resnext101_32x8d | imagenet / instagram / ssl / swsl | 86M |
resnext101_32x16d | instagram / ssl / swsl | 191M |
resnext101_32x32d | 466M | |
resnext101_32x48d | 826M |
编码器 | 权重 | 参数量, M |
---|---|---|
timm-resnest14d | imagenet | 8M |
timm-resnest26d | imagenet | 15M |
timm-resnest50d | imagenet | 25M |
timm-resnest101e | imagenet | 46M |
timm-resnest200e | imagenet | 68M |
timm-resnest269e | imagenet | 108M |
timm-resnest50d_4s2x40d | imagenet | 28M |
timm-resnest50d_1s4x24d | imagenet | 23M |
编码器 | 权重 | 参数量, M |
---|---|---|
timm-res2net50_26w_4s | imagenet | 23M |
timm-res2net101_26w_4s | imagenet | 43M |
timm-res2net50_26w_6s | imagenet | 35M |
timm-res2net50_26w_8s | imagenet | 46M |
timm-res2net50_48w_2s | imagenet | 23M |
timm-res2net50_14w_8s | imagenet | 23M |
timm-res2next50 | imagenet | 22M |
编码器 | 权重 | 参数量(百万) |
---|---|---|
timm-gernet_s | imagenet | 6M |
timm-gernet_m | imagenet | 18M |
timm-gernet_l | imagenet | 28M |
编码器 | 权重 | 参数量(百万) |
---|---|---|
senet154 | imagenet | 113M |
se_resnet50 | imagenet | 26M |
se_resnet101 | imagenet | 47M |
se_resnet152 | imagenet | 64M |
se_resnext50_32x4d | imagenet | 25M |
se_resnext101_32x4d | imagenet | 46M |
编码器 | 权重 | 参数量(百万) |
---|---|---|
timm-skresnet18 | imagenet | 11M |
timm-skresnet34 | imagenet | 21M |
timm-skresnext50_32x4d | imagenet | 25M |
编码器 | 权重 | 参数量(百万) |
---|---|---|
densenet121 | imagenet | 6M |
densenet169 | imagenet | 12M |
densenet201 | imagenet | 18M |
densenet161 | imagenet | 26M |
编码器 | 权重 | 参数量(百万) |
---|---|---|
inceptionresnetv2 | imagenet / imagenet+background | 54M |
inceptionv4 | imagenet / imagenet+background | 41M |
xception | imagenet | 22M |
编码器 | 权重 | 参数量(百万) |
---|---|---|
efficientnet-b0 | imagenet | 4M |
efficientnet-b1 | imagenet | 6M |
efficientnet-b2 | imagenet | 7M |
efficientnet-b3 | imagenet | 10M |
efficientnet-b4 | imagenet | 17M |
efficientnet-b5 | imagenet | 28M |
efficientnet-b6 | imagenet | 40M |
efficientnet-b7 | imagenet | 63M |
timm-efficientnet-b0 | imagenet / advprop / noisy-student | 4M |
timm-efficientnet-b1 | imagenet / advprop / noisy-student | 6M |
timm-efficientnet-b2 | imagenet / advprop / noisy-student | 7M |
timm-efficientnet-b3 | imagenet / advprop / noisy-student | 10M |
timm-efficientnet-b4 | imagenet / advprop / noisy-student | 17M |
timm-efficientnet-b5 | imagenet / advprop / noisy-student | 28M |
timm-efficientnet-b6 | imagenet / advprop / noisy-student | 40M |
timm-efficientnet-b7 | imagenet / advprop / noisy-student | 63M |
timm-efficientnet-b8 | imagenet / advprop | 84M |
timm-efficientnet-l2 | noisy-student | 474M |
timm-efficientnet-lite0 | imagenet | 4M |
timm-efficientnet-lite1 | imagenet | 5M |
timm-efficientnet-lite2 | imagenet | 6M |
timm-efficientnet-lite3 | imagenet | 8M |
timm-efficientnet-lite4 | imagenet | 13M |
编码器 | 权重 | 参数量(百万) |
---|---|---|
dpn68 | imagenet | 11M |
dpn68b | imagenet+5k | 11M |
dpn92 | imagenet+5k | 34M |
dpn98 | imagenet | 58M |
dpn107 | imagenet+5k | 84M |
dpn131 | imagenet | 76M |
编码器 | 权重 | 参数量(百万) |
---|---|---|
vgg11 | imagenet | 9M |
vgg11_bn | imagenet | 9M |
vgg13 | imagenet | 9M |
vgg13_bn | imagenet | 9M |
vgg16 | imagenet | 14M |
vgg16_bn | imagenet | 14M |
vgg19 | imagenet | 20M |
vgg19_bn | imagenet | 20M |
SegFormer在Imagenet上预训练的骨干网络!可以与包中的其他解码器一起使用,您可以将混合视觉Transformer与Unet、FPN等结合使用!
限制:
编码器 | 权重 | 参数量(百万) |
---|---|---|
mit_b0 | imagenet | 3M |
mit_b1 | imagenet | 13M |
mit_b2 | imagenet | 24M |
mit_b3 | imagenet | 44M |
mit_b4 | imagenet | 60M |
mit_b5 | imagenet | 81M |
苹果公司的"亚毫秒级"骨干网络在Imagenet上预训练!可以与所有解码器一起使用。
注意:在官方GitHub仓库中,s0变体有额外的num_conv_branches,导致比s1有更多的参数。
编码器 | 权重 | 参数量(百万) |
---|---|---|
mobileone_s0 | imagenet | 4.6M |
mobileone_s1 | imagenet | 4.0M |
mobileone_s2 | imagenet | 6.5M |
mobileone_s3 | imagenet | 8.8M |
mobileone_s4 | imagenet | 13.6M |
* ssl
、swsl
- 在ImageNet上进行半监督和弱监督学习(仓库)。
Pytorch Image Models(简称timm)有许多预训练模型和接口,可以将这些模型用作smp中的编码器,但并非所有模型都受支持
features_only
功能支持的编码器总数:549
model.encoder
- 预训练的骨干网络,用于提取不同空间分辨率的特征model.decoder
- 取决于模型架构(Unet
/Linknet
/PSPNet
/FPN
)model.segmentation_head
- 最后一个块,用于生成所需数量的掩码通道(还包括可选的上采样和激活)model.classification_head
- 可选块,在编码器顶部创建分类头model.forward(x)
- 顺序地将x
通过模型的编码器、解码器和分割头(如果指定,还包括分类头)输入通道参数允许您创建可处理任意数量通道张量的模型。如果您使用来自imagenet的预训练权重 - 第一个卷积的权重将被重用。对于1通道情况,它将是第一个卷积层权重的总和,否则通道将使用如下方式填充权重:new_weight[:, i] = pretrained_weight[:, i % 3]
,然后用new_weight * 3 / new_in_channels
进行缩放。
model = smp.FPN('resnet34', in_channels=1) mask = model(torch.ones([1, 1, 64, 64]))
所有模型都支持aux_params
参数,默认设置为None
。如果aux_params = None
,则不创建分类辅助输出,否则模型不仅产生mask
,还产生形状为NC
的label
输出。分类头由GlobalPooling->Dropout(可选)->Linear->Activation(可选)层组成,可以通过aux_params
进行配置,如下所示:
aux_params=dict( pooling='avg', # 'avg'或'max'之一 dropout=0.5, # dropout比率,默认为None activation='sigmoid', # 激活函数,默认为None classes=4, # 定义输出标签的数量 ) model = smp.Unet('resnet34', classes=4, aux_params=aux_params) mask, label = model(x)
深度参数指定编码器中的下采样操作数量,因此如果指定较小的depth
,可以使模型更轻量。
model = smp.Unet('resnet34', encoder_depth=4)
PyPI 版本:
$ pip install segmentation-models-pytorch
从源代码安装最新版本:
$ pip install git+https://github.com/qubvel/segmentation_models.pytorch
Segmentation Models
包在图像分割比赛中被广泛使用。
这里你可以找到比赛名称、获胜者姓名以及他们解决方案的链接。
make install_dev # 创建 .venv,以开发模式安装 SMP
make fixup # 使用 Ruff 进行 格式化和代码检查
make table # 生成编码器表格并输出到标准输出
@misc{Iakubovskii:2019,
Author = {Pavel Iakubovskii},
Title = {Segmentation Models Pytorch},
Year = {2019},
Publisher = {GitHub},
Journal = {GitHub repository},
Howpublished = {\url{https://github.com/qubvel/segmentation_models.pytorch}}
}
项目在 MIT 许可证 下分发
AI数字人视频创作平台
Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。
一站式AI创作平台
提供 AI 驱动的图片、视频生成及数字人等功能,助力创意创作
AI办公助手,复杂任务高效处理
AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!
AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI小说写作助手,一站式润色、改写、扩写
蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全 世界的语言交流不再有国界。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮 助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦 语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号