你无法阻止雷暴,但你可以利用电力;你无法控制风向,但你可以调整帆布,让船按你的意愿前进,无论风从哪个方向吹来。 <br/> — Cora L. V. Hatch
Levanter 是一个用于训练大型语言模型(LLMs)和其他基础模型的框架,致力于实现可读性、可扩展性和可重现性:
我们使用 JAX、Equinox 和 Haliax 构建了 Levanter。
Levanter 的文档可在 levanter.readthedocs.io 获取。 Haliax 的文档可在 haliax.readthedocs.io 获取。
jit
函数内部记录日志的能力。Levanter 由斯坦福基础模型研究中心(CRFM)的研究工程团队创建。 你也可以在非官方的 Jax LLM Discord 的 #levanter 频道找到我们。
以下是一些帮助你入门的简单示例。有关各种配置选项的更多信息,请参阅入门指南或深入配置指南。
你也可以使用 --help
或查看其他配置文件,以了解所有可用的选项。
在根据你的平台安装 JAX 之后,你可以通过以下方式安装 Levanter:
pip install levanter
或者使用 GitHub 上的最新版本:
git clone https://github.com/stanford-crfm/levanter.git cd levanter pip install -e . wandb login # 可选,我们使用 wandb 进行日志记录
如果你同时开发 Haliax 和 Levanter,可以这样做:
git clone https://github.com/stanford-crfm/levanter.git cd levanter pip install -e . cd .. git clone https://github.com/stanford-crfm/haliax.git cd haliax pip install -e . cd ../levanter
有关如何安装 Levanter 的更多信息,请参阅安装指南。
如果你使用 TPU,更完整的设置文档可在此处获取。GPU 支持仍在进行中;文档可在此处获取。
作为一种"Hello World"示例,以下是如何在小型数据集上训练 GPT-2 "nano" 大小的模型。
python -m levanter.main.train_lm --config_path config/gpt2_nano.yaml # 或者,如果你没有使用 -e 并且在不同的目录中 python -m levanter.main.train_lm --config_path gpt2_nano
这将在 WikiText-103 数据集上训练一个 GPT2-nano 模型。
你也可以通过更改配置文件中的 dataset
字段来更改数据集。
如果你的数据集是 Hugging Face 数据集,你可以使用 data.id
字段来指定它:
python -m levanter.main.train_lm --config_path config/gpt2_small.yaml --data.id openwebtext # 可选地,你可以指定一个分词器和/或缓存目录,可以是本地的或在 gcs 上的 python -m levanter.main.train_lm --config_path config/gpt2_small.yaml --data.id openwebtext --data.tokenizer "EleutherAI/gpt-neox-20b" --data.cache_dir "gs://path/to/cache/dir"
如果你的数据是一个 URL 列表,你可以使用 data.train_urls
和 data.validation_urls
字段来指定它们。
数据 URL 可以是本地文件、gcs 文件或 http(s) URL,或任何 fsspec 支持的格式。
Levanter(实际上是 fsspec)将自动解压 .gz
和 .zstd
文件,可能还支持其他格式。
python -m levanter.main.train_lm --config_path config/gpt2_small.yaml --data.train_urls ["https://path/to/train/data_*.jsonl.gz"] --data.validation_urls ["https://path/to/val/data_*.jsonl.gz"]
你可以修改配置文件来更改模型、数据集、训练参数等。以下是 gpt2_small.yaml
文件的内容:
data: train_urls: - "gs://pubmed-mosaic/openwebtext-sharded/openwebtext_train.{1..128}-of-128.jsonl.gz" validation_urls: - "gs://pubmed-mosaic/openwebtext-sharded/openwebtext_val.{1..8}-of-8.jsonl.gz" cache_dir: "gs://pubmed-mosaic/tokenized/openwebtext/" model: gpt2: hidden_dim: 768 num_heads: 12 num_layers: 12 seq_len: 1024 gradient_checkpointing: true scale_attn_by_inverse_layer_idx: true trainer: tracker: type: wandb project: "levanter" tags: [ "openwebtext", "gpt2"] mp: p=f32,c=bfloat16 model_axis_size: 1 per_device_parallelism: 4 train_batch_size: 512 optimizer: learning_rate: 6E-4 weight_decay: 0.1 min_lr_ratio: 0.1
目前,我们支持以下架构:
我们计划在未来添加 更多架构。
以下是如何在 OpenWebText 数据集上继续预训练 Llama 1 或 Llama 2 模型的示例:
python -m levanter.main.train_lm --config_path config/llama2_7b_continued.yaml
请参阅 TPU 入门指南 以获取有关如何设置 TPU 云虚拟机并在那里运行 Levanter 的更多信息。
请参阅 CUDA 入门指南 以获取有关如何设置 CUDA 环境并在那里运行 Levanter 的更多信息。
我们欢迎贡献!请查看 CONTRIBUTING.md 以获取更多信息。
Levanter 在 Apache License 2.0 下授权。完整的许可证文本请参见 LICENSE。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务 的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。