微调工具大全:AI模型优化资源汇总

LLM-workshop-2024学习资料汇总 - 从零开始理解和实现大型语言模型

LLM-workshop-2024学习资料汇总 - 从零开始理解和实现大型语言模型

本文汇总了LLM-workshop-2024项目的学习资料,帮助读者快速了解如何从零开始实现和使用大型语言模型,包括代码示例、教程视频和在线实验环境等内容。

LLMsPyTorchGPT预训练微调Github开源项目
VisualGLM-6B 学习资料汇总 - 开源多模态中英双语对话模型

VisualGLM-6B 学习资料汇总 - 开源多模态中英双语对话模型

VisualGLM-6B是一个开源的、支持图像、中文和英文的多模态对话语言模型。本文汇总了VisualGLM-6B的相关学习资源,帮助读者快速了解和使用该模型。

VisualGLM-6B多模态对话模型开源微调图像描述Github开源项目
MedicalGPT入门指南-基于ChatGPT训练Pipeline的医疗大模型训练框架

MedicalGPT入门指南-基于ChatGPT训练Pipeline的医疗大模型训练框架

MedicalGPT是一个基于ChatGPT训练Pipeline的医疗大模型训练框架,实现了包括增量预训练、有监督微调、RLHF、DPO等多种训练方法,可用于训练领域特定的大语言模型。

MedicalGPT医疗大模型强化学习微调医患对话Github开源项目
RAG-Retrieval入门学习资料-统一高效的RAG检索微调与推理框架

RAG-Retrieval入门学习资料-统一高效的RAG检索微调与推理框架

RAG-Retrieval是一个提供全链路RAG检索微调和推理的开源框架,支持多种检索模型的微调和统一推理接口,助力构建高效的检索增强生成系统。

RAG-Retrieval微调推理排序模型检索模型Github开源项目
LLM面试宝典 - 大语言模型相关知识及面试题汇总

LLM面试宝典 - 大语言模型相关知识及面试题汇总

本文整理了大语言模型(LLM)相关的基础知识、架构原理、训练技巧等面试常考内容,帮助读者全面备战LLM算法工程师面试。

LLM大语言模型Transformer分布式训练微调Github开源项目
LLM-Finetuning入门学习资料汇总 - 大模型微调技术实践指南

LLM-Finetuning入门学习资料汇总 - 大模型微调技术实践指南

本文汇总了LLM-Finetuning项目的相关学习资源,包括各种大模型微调技术的实践教程和代码示例,帮助读者快速入门大语言模型的微调技术。

PEFTLoRAHugging Face大型语言模型微调Github开源项目
LLMs-from-scratch入门学习资料汇总 - 从零开始实现ChatGPT类LLM的完整教程

LLMs-from-scratch入门学习资料汇总 - 从零开始实现ChatGPT类LLM的完整教程

这是一篇关于LLMs-from-scratch项目的学习资源汇总文章,介绍了如何从头开始实现一个类似ChatGPT的大语言模型。文章包含了该项目的主要内容、学习路径以及丰富的补充资料,是入门学习LLM的绝佳指南。

Build a Large Language ModelLLMGPT预训练微调Github开源项目
ChuanhuChatGPT学习资源汇总 - 为ChatGPT等多种LLM提供轻快好用的Web图形界面

ChuanhuChatGPT学习资源汇总 - 为ChatGPT等多种LLM提供轻快好用的Web图形界面

ChuanhuChatGPT是一个为ChatGPT等多种大语言模型提供轻量级Web界面的开源项目。本文汇总了该项目的学习资源,包括官方文档、视频教程、在线体验等,帮助读者快速上手使用。

川虎ChatChatGPTLLM本地部署微调GPT-4Github开源项目热门
LitGPT学习资料汇总 - 高性能大语言模型预训练、微调和部署工具

LitGPT学习资料汇总 - 高性能大语言模型预训练、微调和部署工具

LitGPT是一个强大的命令行工具,用于预训练、微调、评估和部署20多种大型语言模型(LLMs),支持最先进的技术如Flash Attention v2、多GPU训练、量化等。

LitGPTAI模型微调大规模部署预训练Github开源项目热门
VisualRWKV: 基于RWKV的创新视觉语言模型

VisualRWKV: 基于RWKV的创新视觉语言模型

VisualRWKV是一个基于RWKV语言模型的创新视觉语言模型,赋予了RWKV处理各种视觉任务的能力。本文将深入介绍VisualRWKV的架构、特点、训练方法以及最新进展。

VisualRWKV视觉语言模型RWKV预训练微调Github开源项目
DISC-FinLLM: 多专家微调的中文金融大语言模型

DISC-FinLLM: 多专家微调的中文金融大语言模型

DISC-FinLLM是由复旦大学开发的中文金融大语言模型,旨在为用户提供专业、智能、全面的金融咨询服务。本文详细介绍了DISC-FinLLM的开发背景、模型架构、训练数据、微调方法、评测结果等内容。

DISC-FinLLM金融大模型微调数据集金融咨询Github开源项目
ChatGLM模型微调技术详解:从Freeze到全参数训练的全面指南

ChatGLM模型微调技术详解:从Freeze到全参数训练的全面指南

本文深入探讨了ChatGLM系列模型的微调技术,包括Freeze、P-Tuning、LoRA和全参数训练等方法,并提供了详细的代码示例和显存占用分析,为开发者进行ChatGLM模型微调提供全面指导。

ChatGLM微调大语言模型深度学习自然语言处理Github开源项目
大型语言模型(LLM)资源全面总结:从研究论文到开源项目

大型语言模型(LLM)资源全面总结:从研究论文到开源项目

本文全面总结了大型语言模型(LLM)领域的重要资源,包括最新研究论文、开源指令数据集、开源模型等,为研究人员和开发者提供了一站式的LLM学习资料库。

大语言模型LLM微调推理评估RAGGithub开源项目
ChatGLM-Math: 通过自我批评流程提升大语言模型的数学问题解决能力

ChatGLM-Math: 通过自我批评流程提升大语言模型的数学问题解决能力

ChatGLM-Math是一个创新的框架,旨在同时提升大语言模型在数学和语言方面的能力。它采用自我批评流程,无需外部监督模型即可生成反馈,显著提高了模型解决数学问题的能力,同时保持了语言能力的提升。

ChatGLM-6B微调LORAPPO数学计算Github开源项目
HCGF: 人性化的大语言模型微调框架

HCGF: 人性化的大语言模型微调框架

HCGF(Humanable Chat Generative-model Fine-tuning)是一个开源的大语言模型微调框架,旨在简化LLM的微调过程,让更多人能够便捷地定制专属于自己的AI助手。

hcgfChatGLM微调LLaMALoraGithub开源项目
MedQA-ChatGLM:基于医疗对话数据的智能问答系统

MedQA-ChatGLM:基于医疗对话数据的智能问答系统

MedQA-ChatGLM是一个基于真实医疗对话数据在ChatGLM模型上进行微调的智能问答系统,旨在提供准确、专业的医疗咨询服务。

医疗大语言模型ChatGLM微调医疗对话LLaMAGithub开源项目
fastHan: 便捷高效的中文自然语言处理工具

fastHan: 便捷高效的中文自然语言处理工具

fastHan是一个基于fastNLP和PyTorch实现的中文自然语言处理工具包,提供了分词、词性标注、命名实体识别和依存句法分析等多项功能,使用方便,性能优异。

fastHan中文自然语言处理BERT多任务模型微调Github开源项目
KoGPT2-FineTuning: 韩语GPT-2模型的微调与应用

KoGPT2-FineTuning: 韩语GPT-2模型的微调与应用

探索KoGPT2-FineTuning项目,了解如何利用预训练的韩语GPT-2模型进行微调,以实现歌词生成等自然语言处理任务。本文详细介绍了项目的背景、数据处理、模型训练和应用等方面。

KoGPT2微调自然语言处理文本生成机器学习Github开源项目
Flacuna:融合Flan的Vicuna模型,提升问题解决能力的新突破

Flacuna:融合Flan的Vicuna模型,提升问题解决能力的新突破

Flacuna是一个通过在Flan-mini指令集上微调Vicuna而开发的新型语言模型。它旨在增强Vicuna的问题解决能力,同时保持其优秀的写作能力。本文深入探讨了Flacuna的开发过程、性能表现及其在各种任务中的应用。

FlacunaVicuna问题解决能力微调语言模型Github开源项目
LLM数据创建:使用大型语言模型生成高质量合成数据

LLM数据创建:使用大型语言模型生成高质量合成数据

本文详细介绍了Microsoft的LLM数据创建框架,该框架可以利用大型语言模型仅通过一个格式示例就生成大量高质量的合成数据,用于训练和评估下游任务的小型模型。

大语言模型数据创建微调评估EMNLPGithub开源项目