Finetune LLMs 项目是一个用于微调大规模语言模型(Large Language Models,简称 LLMs)的代码仓库,特别是使用了一个名人名言数据集进行微调。支持的微调方法包括 DeepSpeed、Lora 和 QLora。
最初,该仓库负责下载并转换 GPTJ 的模型权重,这在尚未加入 Huggingface 的 transformer 包之前是必要的。相关代码仍可以在 original_youtube 分支中找到。
数据集存放在 quotes_dataset 目录中,该数据集已经过格式化,适合用于微调。数据集的制作方法可以在该仓库中查看。
finetuning_repo 目录包含了来源于此处的代码,经过修改后可以支持更多的模型和方法。
如果您需要付费的专业帮助,可以通过电子邮件联系获取支持。
原始仓库代码的视频教程可以在这里查看。
关于 Huggingface 模型的更新视频可以在这里观看。
如果需要查看代码,您可以进入 original_youtube 分支,但强烈推荐使用更新的方法。
更新版教程通过 Nvidia-docker 简化了很多流程。
如果您有一个 64 位的 Linux 系统并需要 A100 驱动,可以运行以下命令来完成设置:
wget https://us.download.nvidia.com/tesla/515.86.01/NVIDIA-Linux-x86_64-515.86.01.run
然后以 sudo 权限运行下载的程序:
chmod 777 NVIDIA-Linux-x86_64-515.86.01.run sudo ./NVIDIA-Linux-x86_64-515.86.01.run
build_image.sh 构建 docker 镜像。如果接到关于无法找到 docker 镜像的错误提示,需更新到更新的 Cuda 版本。镜像会周期性地弃用。然后打开一个 PR 以帮助其他人解决此问题。构建 docker 镜像可能需要几分钟时间。run_image.sh。该脚本会运行刚构建的 docker 镜像,并将当前目录挂载到 docker 容器内的 /workspace 下。系统中的所有 GPU 都会被传递。同时,为了避免每次运行此容器时重复下载模型,您的 .cache 也会被传递。