lite-transformer

lite-transformer

现代高效的长短期注意力Transformer模型

Lite Transformer是一种结合长短期注意力机制的高效Transformer模型。它基于PyTorch开发,支持多种数据集的下载和预处理,能够在NVIDIA GPU上高效运行。模型在多个大型数据集上表现优异,并支持分布式训练和预训练模型下载。

Lite Transformer模型训练数据预处理分布式训练测试模型Github开源项目

Lite Transformer 项目介绍

项目概述

Lite Transformer 是一种先进的神经网络模型,主要用于自然语言处理任务。它通过引入长短程注意力机制,对传统 Transformer 模型进行了优化。此模型通过减少计算量并提高效率,实现在多个重要数据集上的高效表现。

如何使用

环境依赖

要使用 Lite Transformer,用户需要以下软件环境:

  • Python 版本需要在 3.6 以上
  • PyTorch 版本需在 1.0.0 以上
  • 需要 configargparse 包,至少为 0.14 版本
  • 若计划训练新的模型,还需 NVIDIA GPU 以及 NCCL 库的支持

安装步骤

  1. 代码库安装

    用户可以通过 pip 从源码安装 fairseq 来本地开发:

    pip install --editable .
  2. 自定义模块

    为了支持 GPU,还需要构建 lightconvdynamicconv 模块。

    • Lightconv_layer 模块:

      cd fairseq/modules/lightconv_layer python cuda_function_gen.py python setup.py install
    • Dynamicconv_layer 模块:

      cd fairseq/modules/dynamicconv_layer python cuda_function_gen.py python setup.py install

数据准备

Lite Transformer 需要对数据进行预处理,支持多个数据集:

  1. IWSLT'14 De-En
  2. WMT'14 En-Fr
  3. WMT'16 En-De
  4. WIKITEXT-103

使用 bash 脚本来下载和预处理这些数据集。例如:

bash configs/iwslt14.de-en/prepare.sh

测试步骤

要在 WMT'14 En-Fr 数据集上测试模型,可以执行以下命令:

configs/wmt14.en-fr/test.sh [model checkpoin路径] [gpu-id] [test|valid]

例如,在 GPU 0 上评估 Lite Transformer:

configs/wmt14.en-fr/test.sh embed496/ 0 test

模型训练

Lite Transformer 提供了一些示例,帮助用户训练模型。以在 WMT'14 En-Fr 数据集上使用 8 个 GPU 训练为例:

python train.py data/binary/wmt14_en_fr --configs configs/wmt14.en-fr/attention/multibranch_v2/embed496.yml

如果 GPU 数量少,例如 4 个,可以调整为:

CUDA_VISIBLE_DEVICES=0,1,2,3 python train.py data/binary/wmt14_en_fr --configs configs/wmt14.en-fr/attention/multibranch_v2/embed496.yml --update-freq 32

分布式训练(可选)

Lite Transformer 支持在多节点上进行分布式训练。例如,使用两个节点共 16 个 GPU:

  • 在 Host1 上:

    python -m torch.distributed.launch \ --nproc_per_node=8 \ --nnodes=2 --node_rank=0 \ --master_addr=host1 --master_port=8080 \ train.py data/binary/wmt14_en_fr \ --configs configs/wmt14.en-fr/attention/multibranch_v2/embed496.yml \ --distributed-no-spawn \ --update-freq 8
  • 在 Host2 上:

    python -m torch.distributed.launch \ --nproc_per_node=8 \ --nnodes=2 --node_rank=1 \ --master_addr=host1 --master_port=8080 \ train.py data/binary/wmt14_en_fr \ --configs configs/wmt14.en-fr/attention/multibranch_v2/embed496.yml \ --distributed-no-spawn \ --update-freq 8

模型成果

Lite Transformer 提供了多个数据集的模型检查点,这些数据集包括 WMT'14 En-Fr、WMT'16 En-De、CNN/DailyMail 和 WIKITEXT-103 等。这些模型在测试集上的表现如表所示,用户可以直接下载并使用这些已训练的模型。

表中列出的模型指标与数据集的下载链接,方便用户获取并利用这些高性能的预训练模型进行研究和开发。

编辑推荐精选

扣子-AI办公

扣子-AI办公

职场AI,就用扣子

AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!

堆友

堆友

多风格AI绘画神器

堆友平台由阿里巴巴设计团队创建,作为一款AI驱动的设计工具,专为设计师提供一站式增长服务。功能覆盖海量3D素材、AI绘画、实时渲染以及专业抠图,显著提升设计品质和效率。平台不仅提供工具,还是一个促进创意交流和个人发展的空间,界面友好,适合所有级别的设计师和创意工作者。

图像生成AI工具AI反应堆AI工具箱AI绘画GOAI艺术字堆友相机AI图像热门
码上飞

码上飞

零代码AI应用开发平台

零代码AI应用开发平台,用户只需一句话简单描述需求,AI能自动生成小程序、APP或H5网页应用,无需编写代码。

Vora

Vora

免费创建高清无水印Sora视频

Vora是一个免费创建高清无水印Sora视频的AI工具

Refly.AI

Refly.AI

最适合小白的AI自动化工作流平台

无需编码,轻松生成可复用、可变现的AI自动化工作流

酷表ChatExcel

酷表ChatExcel

大模型驱动的Excel数据处理工具

基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。

AI工具酷表ChatExcelAI智能客服AI营销产品使用教程
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
AIWritePaper论文写作

AIWritePaper论文写作

AI论文写作指导平台

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

AI辅助写作AI工具AI论文工具论文写作智能生成大纲数据安全AI助手热门
博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

下拉加载更多