AdelaiDet

AdelaiDet

多任务实例级识别开源工具包

AdelaiDet是基于Detectron2的开源工具包,实现了FCOS、BlendMask、MEInst、ABCNet等多种实例级识别算法。它为目标检测、实例分割、场景文本识别等任务提供高性能解决方案,包含预训练模型和训练接口,便于研究和开发。

实例分割目标检测计算机视觉深度学习AdelaiDetGithub开源项目
<div align="center"> <img src="https://yellow-cdn.veclightyear.com/ab5030c0/9e2ad395-7a9b-4ea4-8d95-84b501617d3c.svg" width="160" > </div>

AdelaiDet

截至2024年1月,CloudStor服务器已关闭。模型文件现托管在huggingface上:

https://huggingface.co/ZjuCv/AdelaiDet/tree/main https://huggingface.co/tianzhi/AdelaiDet-FCOS/tree/main https://huggingface.co/tianzhi/AdelaiDet-CondInst/tree/main https://huggingface.co/tianzhi/AdelaiDet-BoxInst/tree/main

AdelaiDet是基于Detectron2的开源工具箱,用于多个实例级识别任务。我们团队的所有实例级识别工作都在此开源。

目前,AdelaiDet实现了以下算法:

模型

基于FCOS的COCO目标检测基准

名称推理时间框AP下载
FCOS_R_50_1x16 FPS38.7模型
FCOS_MS_R_101_2x12 FPS43.1模型
FCOS_MS_X_101_32x8d_2x6.6 FPS43.9模型
FCOS_MS_X_101_32x8d_dcnv2_2x4.6 FPS46.6模型
FCOS_RT_MS_DLA_34_4x_shtw52 FPS39.1模型

更多模型可以在FCOS的README.md中找到。

基于BlendMask的COCO实例分割基准

模型名称推理时间框AP掩码AP下载
Mask R-CNNR_101_3x10 FPS42.938.6
BlendMaskR_101_3x11 FPS44.839.5模型
BlendMaskR_101_dcni3_5x10 FPS46.841.1模型

更多模型和信息,请参考BlendMask的README.md

基于MEInst的COCO实例分割基准

名称推理时间框AP掩码AP下载
MEInst_R_50_3x12 FPS43.634.5模型

更多模型和信息,请参考MEInst的README.md

使用ABCNet的Total_Text结果

名称推理时间端到端hmean检测hmean下载
v1-totaltext11 FPS67.186.0模型
v2-totaltext7.7 FPS71.887.2模型

更多模型和信息,请参考ABCNet的README.md

使用CondInst的COCO实例分割基准

名称推理时间边界框AP掩码AP下载
CondInst_MS_R_50_1x14 FPS39.735.7模型
CondInst_MS_R_50_BiFPN_3x_sem13 FPS44.739.4模型
CondInst_MS_R_101_3x11 FPS43.338.6模型
CondInst_MS_R_101_BiFPN_3x_sem10 FPS45.740.2模型

更多模型和信息,请参考CondInst的README.md

注意:

  • 所有项目的推理时间都是在NVIDIA 1080Ti上使用批量大小为1进行测量的。
  • 除非特别说明,AP值都是在COCO2017验证集上评估的。

安装

首先按照官方指南安装Detectron2:INSTALL.md

如果遇到任何与Detectron2相关的问题,请使用提交ID为9eb4831的Detectron2版本。

然后通过以下命令构建AdelaiDet:

git clone https://github.com/aim-uofa/AdelaiDet.git
cd AdelaiDet
python setup.py build develop

如果你使用Docker,可以通过以下命令拉取预构建的镜像:

docker pull tianzhi0549/adet:latest

某些项目可能需要特殊设置,请按照configs中各自的README.md进行操作。

快速开始

使用预训练模型进行推理

  1. 选择一个模型及其配置文件,例如fcos_R_50_1x.yaml
  2. 下载模型:wget https://huggingface.co/tianzhi/AdelaiDet-FCOS/resolve/main/FCOS_R_50_1x.pth?download=true -O fcos_R_50_1x.pth
  3. 运行演示:
python demo/demo.py \
    --config-file configs/FCOS-Detection/R_50_1x.yaml \
    --input input1.jpg input2.jpg \
    --opts MODEL.WEIGHTS fcos_R_50_1x.pth

训练自己的模型

要使用"train_net.py"训练模型,首先按照datasets/README.md设置相应的数据集,然后运行:

OMP_NUM_THREADS=1 python tools/train_net.py \
    --config-file configs/FCOS-Detection/R_50_1x.yaml \
    --num-gpus 8 \
    OUTPUT_DIR training_dir/fcos_R_50_1x

要在训练后评估模型,运行:

OMP_NUM_THREADS=1 python tools/train_net.py \
    --config-file configs/FCOS-Detection/R_50_1x.yaml \
    --eval-only \
    --num-gpus 8 \
    OUTPUT_DIR training_dir/fcos_R_50_1x \
    MODEL.WEIGHTS training_dir/fcos_R_50_1x/model_final.pth

注意:

  • 配置文件是为8-GPU训练设计的。如果要在其他数量的GPU上训练,请更改--num-gpus
  • 如果要测量推理时间,请将--num-gpus更改为1。
  • 我们默认设置OMP_NUM_THREADS=1,这在我们的机器上能达到最佳速度,请根据需要进行更改。
  • 这个快速开始是为FCOS设计的。如果你使用其他项目,请查看configs中各项目自己的README.md

致谢

作者感谢Nvidia、华为诺亚方舟实验室、字节跳动和Adobe在过去几年中慷慨捐赠的GPU计算资源。

引用AdelaiDet

如果你在研究中使用了这个工具箱或希望引用这里发布的基准结果,请使用以下BibTeX条目:

@misc{tian2019adelaidet, author = {Tian, Zhi and Chen, Hao and Wang, Xinlong and Liu, Yuliang and Shen, Chunhua}, title = {{AdelaiDet}: A Toolbox for Instance-level Recognition Tasks}, howpublished = {\url{https://git.io/adelaidet}}, year = {2019} }

以及相关出版物:

undefined

@inproceedings{tian2019fcos, title = {{FCOS}: 全卷积单阶段目标检测}, author = {Tian, Zhi 和 Shen, Chunhua 和 Chen, Hao 和 He, Tong}, booktitle = {国际计算机视觉会议论文集 (ICCV)}, year = {2019} }

@article{tian2021fcos, title = {{FCOS}: 一种简单而强大的无锚点目标检测器}, author = {Tian, Zhi 和 Shen, Chunhua 和 Chen, Hao 和 He, Tong}, journal = {IEEE模式分析与机器智能汇刊 (TPAMI)}, year = {2021} }

@inproceedings{chen2020blendmask, title = {{BlendMask}: 自顶向下与自底向上相结合的实例分割方法}, author = {Chen, Hao 和 Sun, Kunyang 和 Tian, Zhi 和 Shen, Chunhua 和 Huang, Yongming 和 Yan, Youliang}, booktitle = {IEEE计算机视觉与模式识别会议论文集 (CVPR)}, year = {2020} }

@inproceedings{zhang2020MEInst, title = {单次实例分割的掩码编码}, author = {Zhang, Rufeng 和 Tian, Zhi 和 Shen, Chunhua 和 You, Mingyu 和 Yan, Youliang}, booktitle = {IEEE计算机视觉与模式识别会议论文集 (CVPR)}, year = {2020} }

@inproceedings{liu2020abcnet, title = {{ABCNet}: 基于自适应贝塞尔曲线网络的实时场景文本检测}, author = {Liu, Yuliang 和 Chen, Hao 和 Shen, Chunhua 和 He, Tong 和 Jin, Lianwen 和 Wang, Liangwei}, booktitle = {IEEE计算机视觉与模式识别会议论文集 (CVPR)}, year = {2020} }

@ARTICLE{9525302, author={Liu, Yuliang 和 Shen, Chunhua 和 Jin, Lianwen 和 He, Tong 和 Chen, Peng 和 Liu, Chongyu 和 Chen, Hao}, journal={IEEE模式分析与机器智能汇刊}, title={ABCNet v2: 用于实时端到端文本检测的自适应贝塞尔曲线网络}, year={2021}, volume={}, number={}, pages={1-1}, doi={10.1109/TPAMI.2021.3107437} }

@inproceedings{wang2020solo, title = {{SOLO}: 基于位置的目标分割}, author = {Wang, Xinlong 和 Kong, Tao 和 Shen, Chunhua 和 Jiang, Yuning 和 Li, Lei}, booktitle = {欧洲计算机视觉会议论文集 (ECCV)}, year = {2020} }

@inproceedings{wang2020solov2, title = {{SOLOv2}: 动态快速实例分割}, author = {Wang, Xinlong 和 Zhang, Rufeng 和 Kong, Tao 和 Li, Lei 和 Shen, Chunhua}, booktitle = {神经信息处理系统进展会议论文集 (NeurIPS)}, year = {2020} }

@article{wang2021solo, title = {{SOLO}: 一个简单的实例分割框架}, author = {Wang, Xinlong 和 Zhang, Rufeng 和 Shen, Chunhua 和 Kong, Tao 和 Li, Lei}, journal = {IEEE模式分析与机器智能汇刊 (TPAMI)}, year = {2021} }

@article{tian2019directpose, title = {{DirectPose}: 直接端到端多人姿态估计}, author = {Tian, Zhi 和 Chen, Hao 和 Shen, Chunhua}, journal = {arXiv预印本 arXiv:1911.07451}, year = {2019} }

@inproceedings{tian2020conditional, title = {用于实例分割的条件卷积}, author = {Tian, Zhi 和 Shen, Chunhua 和 Chen, Hao}, booktitle = {欧洲计算机视觉会议论文集 (ECCV)}, year = {2020} }

@article{CondInst2022Tian, title = {使用条件卷积进行实例和全景分割}, author = {Tian, Zhi 和 Zhang, Bowen 和 Chen, Hao 和 Shen, Chunhua}, journal = {IEEE模式分析与机器智能汇刊 (TPAMI)}, year = {2022} }

@inproceedings{tian2021boxinst, title = {{BoxInst}: 基于框注释的高性能实例分割}, author = {Tian, Zhi 和 Shen, Chunhua 和 Wang, Xinlong 和 Chen, Hao}, booktitle = {IEEE计算机视觉与模式识别会议论文集 (CVPR)}, year = {2021} }

@inproceedings{wang2021densecl, title = {用于自监督视觉预训练的密集对比学习}, author = {Wang, Xinlong 和 Zhang, Rufeng 和 Shen, Chunhua 和 Kong, Tao 和 Li, Lei}, booktitle = {IEEE计算机视觉与模式识别会议论文集 (CVPR)}, year = {2021} }

@inproceedings{Mao2021pose, title = {{FCPose}: 基于动态实例感知卷积的全卷积多人姿态估计}, author = {Mao, Weian 和 Tian, Zhi 和 Wang, Xinlong 和 Shen, Chunhua}, booktitle = {IEEE计算机视觉与模式识别会议论文集 (CVPR)}, year = {2021} }

许可证

对于学术用途,本项目采用2条款BSD许可证 - 详情请见LICENSE文件。对于商业用途,请联系 Chunhua Shen

编辑推荐精选

博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

下拉加载更多