lite-transformer

lite-transformer

现代高效的长短期注意力Transformer模型

Lite Transformer是一种结合长短期注意力机制的高效Transformer模型。它基于PyTorch开发,支持多种数据集的下载和预处理,能够在NVIDIA GPU上高效运行。模型在多个大型数据集上表现优异,并支持分布式训练和预训练模型下载。

Lite Transformer模型训练数据预处理分布式训练测试模型Github开源项目

Lite Transformer 项目介绍

项目概述

Lite Transformer 是一种先进的神经网络模型,主要用于自然语言处理任务。它通过引入长短程注意力机制,对传统 Transformer 模型进行了优化。此模型通过减少计算量并提高效率,实现在多个重要数据集上的高效表现。

如何使用

环境依赖

要使用 Lite Transformer,用户需要以下软件环境:

  • Python 版本需要在 3.6 以上
  • PyTorch 版本需在 1.0.0 以上
  • 需要 configargparse 包,至少为 0.14 版本
  • 若计划训练新的模型,还需 NVIDIA GPU 以及 NCCL 库的支持

安装步骤

  1. 代码库安装

    用户可以通过 pip 从源码安装 fairseq 来本地开发:

    pip install --editable .
  2. 自定义模块

    为了支持 GPU,还需要构建 lightconvdynamicconv 模块。

    • Lightconv_layer 模块:

      cd fairseq/modules/lightconv_layer python cuda_function_gen.py python setup.py install
    • Dynamicconv_layer 模块:

      cd fairseq/modules/dynamicconv_layer python cuda_function_gen.py python setup.py install

数据准备

Lite Transformer 需要对数据进行预处理,支持多个数据集:

  1. IWSLT'14 De-En
  2. WMT'14 En-Fr
  3. WMT'16 En-De
  4. WIKITEXT-103

使用 bash 脚本来下载和预处理这些数据集。例如:

bash configs/iwslt14.de-en/prepare.sh

测试步骤

要在 WMT'14 En-Fr 数据集上测试模型,可以执行以下命令:

configs/wmt14.en-fr/test.sh [model checkpoin路径] [gpu-id] [test|valid]

例如,在 GPU 0 上评估 Lite Transformer:

configs/wmt14.en-fr/test.sh embed496/ 0 test

模型训练

Lite Transformer 提供了一些示例,帮助用户训练模型。以在 WMT'14 En-Fr 数据集上使用 8 个 GPU 训练为例:

python train.py data/binary/wmt14_en_fr --configs configs/wmt14.en-fr/attention/multibranch_v2/embed496.yml

如果 GPU 数量少,例如 4 个,可以调整为:

CUDA_VISIBLE_DEVICES=0,1,2,3 python train.py data/binary/wmt14_en_fr --configs configs/wmt14.en-fr/attention/multibranch_v2/embed496.yml --update-freq 32

分布式训练(可选)

Lite Transformer 支持在多节点上进行分布式训练。例如,使用两个节点共 16 个 GPU:

  • 在 Host1 上:

    python -m torch.distributed.launch \ --nproc_per_node=8 \ --nnodes=2 --node_rank=0 \ --master_addr=host1 --master_port=8080 \ train.py data/binary/wmt14_en_fr \ --configs configs/wmt14.en-fr/attention/multibranch_v2/embed496.yml \ --distributed-no-spawn \ --update-freq 8
  • 在 Host2 上:

    python -m torch.distributed.launch \ --nproc_per_node=8 \ --nnodes=2 --node_rank=1 \ --master_addr=host1 --master_port=8080 \ train.py data/binary/wmt14_en_fr \ --configs configs/wmt14.en-fr/attention/multibranch_v2/embed496.yml \ --distributed-no-spawn \ --update-freq 8

模型成果

Lite Transformer 提供了多个数据集的模型检查点,这些数据集包括 WMT'14 En-Fr、WMT'16 En-De、CNN/DailyMail 和 WIKITEXT-103 等。这些模型在测试集上的表现如表所示,用户可以直接下载并使用这些已训练的模型。

表中列出的模型指标与数据集的下载链接,方便用户获取并利用这些高性能的预训练模型进行研究和开发。

编辑推荐精选

Vora

Vora

免费创建高清无水印Sora视频

Vora是一个免费创建高清无水印Sora视频的AI工具

Refly.AI

Refly.AI

最适合小白的AI自动化工作流平台

无需编码,轻松生成可复用、可变现的AI自动化工作流

酷表ChatExcel

酷表ChatExcel

大模型驱动的Excel数据处理工具

基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。

AI工具酷表ChatExcelAI智能客服AI营销产品使用教程
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
AIWritePaper论文写作

AIWritePaper论文写作

AI论文写作指导平台

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

AI辅助写作AI工具AI论文工具论文写作智能生成大纲数据安全AI助手热门
博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

下拉加载更多