GPT2

GPT2

PyTorch优化实现的自然语言生成模型

该项目是OpenAI GPT-2模型的PyTorch实现,提供模型训练、文本生成和指标可视化功能。代码设计兼顾可读性和性能优化,支持多GPU训练、自动混合精度和梯度检查点等特性。项目提供详细的命令行使用说明,并可在Google Colab中进行交互式文本生成和模型评估。

GPT-2PyTorch自然语言处理深度学习文本生成Github开源项目

GPT-2 PyTorch 实现

构建 GitHub 在 Colab 中打开 codecov CodeFactor

语言模型是无监督的多任务学习器

目录

简介

本项目是 OpenAI GPT-2 模型的 PyTorch 实现。它提供了模型训练、句子生成和指标可视化功能。我们致力于使代码既易于理解又经过优化。我们设计的代码易于理解,同时我们还使用一些技术来提高性能。

依赖项

  • regex
  • tqdm
  • torch
  • numpy
  • matplotlib

使用方法

如何训练?

在训练 GPT-2 模型之前,需要准备语料库数据集。我们建议使用 Expanda 构建您自己的语料库。另外,训练模块需要分词后的训练和评估数据集以及它们的词汇表文件。

准备好数据集后,您可以按如下方式训练 GPT-2:

$ python -m gpt2 train --train_corpus           build/corpus.train.txt \
                       --eval_corpus            build/corpus.test.txt \
                       --vocab_path             build/vocab.txt \
                       --save_checkpoint_path   ckpt-gpt2.pth \
                       --save_model_path        gpt2-pretrained.pth
                       --batch_train            128 \
                       --batch_eval             128 \
                       --seq_len                64 \
                       --total_steps            1000000 \
                       --eval_steps             500 \
                       --save_steps             5000

要从上一个检查点文件恢复训练,请使用 --from_checkpoint [上一个检查点文件] 选项。 如果您想使用多个 GPU 训练 GPT-2,请使用 --gpus [GPU 数量] 选项。

命令行用法详情如下:

usage: gpt2 train [-h] --train_corpus TRAIN_CORPUS --eval_corpus EVAL_CORPUS
                  --vocab_path VOCAB_PATH [--seq_len SEQ_LEN]
                  [--layers LAYERS] [--heads HEADS] [--dims DIMS]
                  [--rate RATE] [--dropout DROPOUT]
                  [--batch_train BATCH_TRAIN] [--batch_eval BATCH_EVAL]
                  [--base_lr BASE_LR] [--wd_rate WD_RATE]
                  [--total_steps TOTAL_STEPS] [--eval_steps EVAL_STEPS]
                  [--save_steps SAVE_STEPS]
                  [--save_model_path SAVE_MODEL_PATH]
                  [--save_checkpoint_path SAVE_CHECKPOINT_PATH]
                  [--from_checkpoint FROM_CHECKPOINT]
                  [--from_pretrained FROM_PRETRAINED] [--use_amp]
                  [--use_grad_ckpt] [--gpus GPUS]

可选参数:
  -h, --help            显示此帮助信息并退出

语料库和词汇表:
  --train_corpus TRAIN_CORPUS
                        训练语料库文件路径
  --eval_corpus EVAL_CORPUS
                        评估语料库文件路径
  --vocab_path VOCAB_PATH
                        词汇表文件路径

模型配置:
  --seq_len SEQ_LEN     最大序列长度
  --layers LAYERS       transformer 层数
  --heads HEADS         注意力层中的多头数量
  --dims DIMS           每层表示的维度
  --rate RATE           瓶颈层维度增加率
  --dropout DROPOUT     每个元素被丢弃的概率

训练和评估:
  --batch_train BATCH_TRAIN
                        训练批次大小
  --batch_eval BATCH_EVAL
                        评估批次大小
  --base_lr BASE_LR     默认学习率
  --wd_rate WD_RATE     权重衰减率
  --total_steps TOTAL_STEPS
                        总训练步数
  --eval_steps EVAL_STEPS
                        评估模型和记录指标的周期
  --save_steps SAVE_STEPS
                        将训练状态保存到检查点的周期

保存和恢复:
  --save_model_path SAVE_MODEL_PATH
                        将训练好的模型权重保存到文件
  --save_checkpoint_path SAVE_CHECKPOINT_PATH
                        将训练状态保存到检查点文件
  --from_checkpoint FROM_CHECKPOINT
                        从检查点文件加载上一次训练状态
  --from_pretrained FROM_PRETRAINED
                        从预训练模型初始化参数

扩展:
  --use_amp             在训练中使用自动混合精度
  --use_grad_ckpt       在 transformer 层中使用梯度检查点
  --gpus GPUS           训练中使用的 GPU 设备数量

生成句子!

训练 GPT-2 后,您可以在交互模式下使用训练好的模型生成句子。

$ python -m gpt2 generate --vocab_path      build/vocab.txt \
                          --model_path      model.pth \
                          --seq_len         64 \
                          --nucleus_prob    0.8

命令行用法详情如下: 用法: gpt2 生成 [-h] --词表路径 词表路径 --模型 模型 [--序列长度 序列长度] [--层数 层数] [--头数 头数] [--维度 维度] [--比率 比率] [--顶部概率 顶部概率] [--使用GPU]

可选参数: -h, --帮助 显示此帮助信息并退出 --词表路径 词表路径 词表文件路径 --模型路径 模型路径 训练好的GPT-2模型文件路径

模型配置: --序列长度 序列长度 最大序列长度 --层数 层数 transformer层数 --头数 头数 注意力层中的多头数量 --维度 维度 每层表示的维度 --比率 比率 瓶颈层维度增长率

生成选项: --核采样概率 核采样概率 核采样的概率阈值 --使用GPU 在推理时使用GPU设备

评估模型

评估训练模型性能的一种方法是使用未在训练阶段使用的评估数据集计算客观指标。

$ python -m gpt2 evaluate --模型路径 model.pth --评估语料 corpus.test.txt --词表路径 vocab.txt

可视化指标

此外,您还可以通过可视化记录的指标来分析训练损失图。

$ python -m gpt2 visualize --模型路径 model.pth --交互式

示例图如下:

图片

在训练中使用apex

在训练时,您可以使用NVIDIA apex来使用融合CUDA层和混合精度优化。选项--use_amp启用训练中的自动混合精度。在使用这些性能提升之前,您应该按照仓库的说明安装NVIDIA apex库,或运行以下命令:

$ git clone https://github.com/NVIDIA/apex
$ cd apex
$ pip install -v --no-cache-dir --global-option="--cpp_ext" --global-option="--cuda_ext" ./

如果您无法安装该库或您的GPU设备不支持快速混合精度训练(准确地说,GPU应支持通过Tensor Cores进行混合精度加速),您可以以单精度模式训练模型。混合精度训练是一个可选项。在这种情况下,您仍然可以在训练中使用融合CUDA层,如Adam优化器和层归一化。

在Google Colab中体验!

在Colab中打开

您可以在Google Colab中体验训练好的GPT2模型!上面的notebook包含文本生成和指标评估。您需要将训练好的模型、词表文件和评估数据集上传到Google Cloud Storage

对于对韩语版GPT2感兴趣的人,我们重写了上述notebook,特别提供了gpt2-ko-302M模型的案例,该模型使用约5.04B个来自韩语文档的标记进行训练。您可以在此notebook中体验演示。

许可证

本项目采用Apache-2.0许可证

Star历史

Star历史图表

编辑推荐精选

TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

Keevx

Keevx

AI数字人视频创作平台

Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。

即梦AI

即梦AI

一站式AI创作平台

提供 AI 驱动的图片、视频生成及数字人等功能,助力创意创作

扣子-AI办公

扣子-AI办公

AI办公助手,复杂任务高效处理

AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!

蛙蛙写作

蛙蛙写作

AI小说写作助手,一站式润色、改写、扩写

蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。

AI辅助写作AI工具蛙蛙写作AI写作工具学术助手办公助手营销助手AI助手
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

热门AI助手AI对话AI工具聊天机器人
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
下拉加载更多