SOFT: Softmax-free Transformer with Linear Complexity - 高效的线性变换器模型

RayRay
Transformer自注意力机制线性复杂度图像分类目标检测Github开源项目

SOFT简介

SOFT(Softmax-free Transformer)是由复旦大学和萨里大学的研究人员共同提出的一种新型Transformer模型。它的主要创新点在于去除了传统Transformer中的softmax操作,从而将自注意力机制的计算复杂度从二次方降低到线性。这一改进使得SOFT在保持强大性能的同时,大大提高了计算效率。

SOFT最初于2021年在NeurIPS会议上发表,后来又在2024年IJCV期刊上发表了扩展版本。目前,SOFT已经在图像分类、目标检测和语义分割等多个计算机视觉任务上展现出了卓越的性能。

SOFT模型结构图

SOFT的主要特点

  1. 线性复杂度: 通过去除softmax操作,SOFT将自注意力机制的计算复杂度从O(n^2)降低到O(n),其中n是序列长度。这使得SOFT能够更高效地处理长序列输入。

  2. 强大的泛化能力: SOFT提出了一种归一化的无softmax自注意力机制,进一步增强了模型的泛化能力。

  3. 多任务适用性: SOFT不仅在图像分类任务上表现出色,还被成功应用于目标检测和语义分割等下游任务。

  4. 灵活的实现: SOFT提供了PyTorch和CUDA两种实现版本,可以根据具体需求选择使用。

SOFT在图像分类任务上的表现

SOFT在ImageNet-1K数据集上进行了广泛的实验,展示了其在不同模型规模下的优异性能:

  • SOFT-Tiny (13M参数): 79.3% Top-1准确率
  • SOFT-Small (24M参数): 82.2% Top-1准确率
  • SOFT-Medium (45M参数): 82.9% Top-1准确率
  • SOFT-Large (64M参数): 83.1% Top-1准确率
  • SOFT-Huge (87M参数): 83.3% Top-1准确率

这些结果表明,SOFT在参数量相近的情况下,能够达到或超过其他先进的Transformer模型的性能。

SOFT在目标检测任务中的应用

SOFT还被应用于COCO数据集的目标检测任务中,并与RetinaNet和Mask R-CNN等经典检测框架结合:

  • SOFT-Tiny-Norm + RetinaNet: 40.0 box mAP
  • SOFT-Tiny-Norm + Mask R-CNN: 41.2 box mAP, 38.2 mask mAP
  • SOFT-Large-Norm + RetinaNet: 45.3 box mAP
  • SOFT-Large-Norm + Mask R-CNN: 47.0 box mAP, 42.2 mask mAP

这些结果显示,SOFT作为backbone能够有效提升目标检测模型的性能。

SOFT在语义分割任务上的表现

在ADE20K数据集的语义分割任务上,SOFT同样展现出了强大的性能:

  • SOFT-Small-Norm + UperNet: 46.2 mIoU
  • SOFT-Medium-Norm + UperNet: 48.0 mIoU

这进一步证明了SOFT在各种视觉任务中的通用性和有效性。

SOFT的实现与使用

SOFT的源代码已在GitHub上开源[1],研究人员和开发者可以方便地使用和扩展这一模型。主要步骤包括:

  1. 环境配置:

    pip install timm==0.3.2
    pip install torch>=1.7.0
    
  2. 数据准备: 按照标准的ImageNet数据集格式组织训练和验证数据。

  3. 安装SOFT:

    git clone https://github.com/fudan-zvg/SOFT.git
    python -m pip install -e SOFT
    
  4. 模型训练:

    ./dist_train.sh ${GPU_NUM} --data ${DATA_PATH} --config ${CONFIG_FILE}
    
  5. 模型评估:

    ./dist_train.sh ${GPU_NUM} --data ${DATA_PATH} --config ${CONFIG_FILE} --eval_checkpoint ${CHECKPOINT_FILE} --eval
    

SOFT提供了多个预训练模型,用户可以直接下载使用,也可以根据自己的需求进行微调。

SOFT的未来发展

作为一种高效且性能强大的Transformer变体,SOFT为深度学习模型在处理大规模数据和复杂任务时提供了新的可能性。未来,SOFT可能会在以下几个方面继续发展:

  1. 更大规模模型: 随着硬件性能的提升,可以尝试训练更大规模的SOFT模型,探索其性能上限。

  2. 跨模态应用: 将SOFT扩展到自然语言处理、语音识别等其他领域,研究其在跨模态任务中的表现。

  3. 模型压缩: 研究如何在保持性能的同时,进一步减小模型大小和计算复杂度,使SOFT更适合在资源受限的环境中部署。

  4. 结构优化: 探索SOFT架构的其他可能改进,如引入新的注意力机制或优化网络结构。

  5. 与其他技术结合: 将SOFT与其他先进技术(如神经架构搜索、知识蒸馏等)结合,进一步提升模型性能。

结论

SOFT作为一种创新的Transformer模型,通过去除softmax操作实现了线性复杂度,在保持强大性能的同时大大提高了计算效率。它在图像分类、目标检测和语义分割等多个视觉任务上都取得了优异的结果,展现出了广阔的应用前景。

随着深度学习模型不断向更大规模、更高效率发展,SOFT这类能够有效处理长序列输入的模型将变得越来越重要。我们期待看到SOFT在未来能够在更多领域发挥作用,推动人工智能技术的进一步发展。

[1] SOFT GitHub仓库: https://github.com/fudan-zvg/SOFT

编辑推荐精选

博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

热门AI工具AI办公办公工具智能排版AI生成PPT博思AIPPT海量精品模板AI创作
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

AI助手热门AI工具AI创作AI辅助写作讯飞绘文内容运营个性化文章多平台分发
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

热门AI工具生产力协作转型TraeAI IDE
商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

下拉加载更多