大型语言模型高效微调指南
了解如何使用LoRA和Hugging Face Transformers库高效微调大型语言模型。项目提供详细的教程笔记本,包括在Colab中微调Llama 2、GPT-Neo-X-20B、MPT-Instruct-30B等模型的指导和代码示例。无论新手或专家,均可找到实用资源,提升语言模型性能。欢迎贡献和提交问题,共同完善此开源项目。
LLM-Finetuning 项目,或称为 PEFT (Pretraining-Evaluation Fine-Tuning) 项目,致力于利用 LoRA 和 Hugging Face 的 transformers 库高效地微调大型语言模型。该项目的主要目标是通过方便的工具和指南,让用户能够有效地训练和调整自己的语言模型。
为了帮助用户更好地理解和应用微调过程,项目提供了一系列详细的笔记本指南。以下是一些核心笔记本及其内容概述:
这个笔记本提供了有关使用 LoRA 和 Hugging Face 高效训练大型语言模型的详细信息和代码。
该指南为用户如何在 Colab 上微调他们的 Llama 2 模型提供了详细步骤。
该部分展示了一个由 LLaMA-7B 模型驱动的聊天机器人演示。
此项目细节涵盖了如何使用 PEFT 微调 Bloom-560m 标签器。
说明了如何结合 PEFT 和 Bloom-560m 标签器微调 Meta OPT-6-1b 模型。
此指南讲解了如何使用 BNB 自监督训练方法来微调 Falcon-7b。
该笔记本指导用户通过 PEFT 库和 QLoRa 方法微调 Llama 2 7B 预训练模型。
该指南介绍了如何在 Colab 中对 Vicuna 13B_8bit 模型进行微调。
提供了如何使用 bfloat16 精度训练 GPT-NeoX-20B 模型的指南。
MPT-Instruct-30B 是来自 MosaicML 的一种大型语言模型,可用于遵循指令、回答问题以及生成文本。
该部分展示了如何在任意 LLM 模型上使用自定义数据集进行 RLHF 训练。
说明了如何使用定制数据集对 Microsoft Phi 1.5b 进行微调。
该指南涵盖了如何使用个人数据对 GPT 3.5 进行微调。
指导用户如何使用 AutoTrain-Advanced 微调 Mistral-7b。
解释了如何使用 LangChain 进行 RAG (Retrieve-then-Answer Generation) 操作。
展示了如何使用 pdf 问答功能构建知识图谱。
该指南描述了如何将文本或 PDF 文档转化为知识图谱,并结合问答功能。
此指南帮助用户了解如何轻松地将任何文档转换为知识图谱以供 RAG 应用使用。
介绍了如何使用 hqq 框架通过 1-bit 和 2-bit 量化方法训练模型。
此部分帮助用户了解如何训练典型模型 Gemma2 9b。
该笔记本提供了使用 MLFLOW 来评价 21 RAG 管道的指南,遵循最佳行业实践。
这部分为用户提供了使用 mlflow.evaluate() 评估 Hugging Face 语言学习模型的详细指南。
本项目欢迎任何形式的贡献。如果希望为项目做出贡献,可以提交 ISSUE 或发起 PULL REQUEST。
该项目遵循 MIT 许可证。
本项目由 Ashish 用 ❤️ 创建。
AI数字人视频创作平台
Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。
一站式AI创作平台
提供 AI 驱动的图片、视频生成及数字人等功能,助力创意创作
AI办公助手,复杂任务高效处理
AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!
AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI小说写作助手,一站式润色、改写、扩写
蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程 。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。
全能AI智能助手,随时解答生活与工作的多样问题