ChatGPT开源平替大盘点:从自主模型到Alpaca模式

RayRay
ChatGPTGPT4开源大模型OpenAIGithub开源项目

FindTheChatGPTer

ChatGPT开源平替大盘点:从自主模型到Alpaca模式

随着ChatGPT的爆火,人工智能大语言模型成为了科技领域的焦点。然而,由于OpenAI并未开源ChatGPT,众多研究机构和开发者开始寻找开源替代方案。本文将全面介绍目前主流的ChatGPT开源平替项目,包括自主研发的大模型和基于LLaMA等的微调模型,为读者提供AI大模型领域的全景图。

一、自主模型篇

这一类模型采用非LLAMA等微调方式,自主设计或优化GPT、T5等模型架构,并实现从预训练、监督微调到强化学习的全周期过程。

ChatYuan

ChatYuan(元语AI)是由元语智能开发团队推出的对话大模型,被称为国内最早的功能型对话大模型之一。它支持写文章、写作业、写诗歌、中英文翻译等任务,在法律等特定领域也可以提供相关信息。ChatYuan目前只支持中文,底层采用7亿参数规模的T5模型,并基于PromptClue进行了监督微调。

ChatYuan架构

ChatYuan的开源地址为:https://github.com/clue-ai/ChatYuan

Colossal AI

最近,ColossalAI开源了他们的ChatGPT实现,分享了完整的三步策略,实现了ChatGPT核心的技术路线。这三个步骤包括:

  1. SFT监督微调阶段
  2. 奖励模型(RM)训练阶段
  3. 强化学习(RLHF)阶段

ColossalAI的开源为研究人员提供了一个完整的ChatGPT复现框架。

Colossal AI架构

Colossal AI的开源地址为:https://github.com/hpcaitech/ColossalAI

ChatGLM

ChatGLM是清华大学技术成果转化公司智谱AI开源的对话模型,支持中英两种语言,目前开源了62亿参数量的模型。ChatGLM在模型架构上进行了优化,降低了部署和应用门槛,实现了大模型在消费级显卡上的推理应用。

ChatGLM实现了ChatGPT的强化学习人类对齐策略,使生成效果更贴近人类价值。它的能力域包括自我认知、提纲写作、文案写作、邮件写作助手、信息抽取、角色扮演、评论比较、旅游建议等。

ChatGLM示例

ChatGLM的开源地址为:https://github.com/THUDM/ChatGLM-6B

最近,该团队还开源了ChatGLM的多模态版本VisualGLM-6B,支持图像、中文和英文的多模态对话。VisualGLM-6B依靠来自CogView数据集的30M高质量中文图文对和300M经过筛选的英文图文对进行预训练,较好地将视觉信息对齐到ChatGLM的语义空间。

PaLM-rlhf-pytorch

PaLM-rlhf-pytorch号称首个开源ChatGPT平替项目,其基本思路是基于谷歌语言大模型PaLM架构,以及使用从人类反馈中强化学习的方法(RLHF)。PaLM是谷歌在2022年4月发布的5400亿参数全能大模型,基于Pathways系统训练。它可以完成写代码、聊天、语言理解等任务,并且在大多数任务上具有强大的少样本学习性能。

PaLM架构

PaLM-rlhf-pytorch的开源地址为:https://github.com/lucidrains/PaLM-rlhf-pytorch

OpenFlamingo

OpenFlamingo是一个对标GPT-4、支持大型多模态模型训练和评估的框架,由非盈利机构LAION重磅开源发布,是对DeepMind的Flamingo模型的复现。目前开源的是基于LLaMA的OpenFlamingo-9B模型。

Flamingo模型在包含交错文本和图像的大规模网络语料库上进行训练,具备上下文少样本学习能力。OpenFlamingo实现了原始Flamingo中提出的相同架构,在一个新的多模态C4数据集的5M样本和LAION-2B的10M样本上训练而来。

OpenFlamingo示例

OpenFlamingo的开源地址为:https://github.com/mlfoundations/open_flamingo

MOSS

MOSS是复旦大学发布的对话模型,支持插件化,如解方程、搜索等。MOSS的参数量为16B,在约七千亿中英文以及代码单词上预训练得到,后续经过对话指令微调、插件增强学习和人类偏好训练,具备多轮对话能力及使用多种插件的能力。

MOSS示例

MOSS的开源地址为:https://github.com/OpenLMLab/MOSS

mPLUG-Owl

mPLUG-Owl是一个对标GPT-4的开源多模态大模型,延续了mPLUG系列的模块化训练思想。目前开源了7B参数量的模型,同时首次针对视觉相关的指令理解提出一个全面的测试集OwlEval。通过人工评测对比了已有模型,包括LLaVA、MiniGPT-4等工作,mPLUG-Owl展示出更优的多模态能力,尤其在多模态指令理解能力、多轮对话能力、知识推理能力等方面表现突出。

mPLUG-Owl示例

mPLUG-Owl的开源地址为:https://github.com/X-PLUG/mPLUG-Owl

悟道·天鹰

在近期召开的智源大会上,智源研究院开源了其悟道·天鹰大模型,具备中英双语知识。开源版本的基础模型参数量包括70亿和330亿,同时其开源了AquilaChat对话模型和AquilaCode文本-代码生成模型,且都已经开放了商业许可。

Aquila采用GPT-3、LLaMA等Decoder-only架构,同时针对中英双语更新了词表,并采用其加速训练方法。其性能上的保障不仅依赖于模型的优化改进,还得益于智源这几年在大模型高质量数据上的积累。

悟道·天鹰示例

悟道·天鹰的开源地址为:https://github.com/FlagAI-Open/FlagAI/tree/master/examples/Aquila

二、Alpaca模式篇

这一类模型主要基于LLaMA等已有大模型进行微调,以低成本实现类似ChatGPT的效果。

stanford-alpaca

斯坦福发布的alpaca(羊驼模型)是一个基于LLaMA-7B模型微调出的新模型。其基本原理是让OpenAI的text-davinci-003模型以self-instruct方式生成52K指令样本,以此来微调LLaMA。该项目已将训练数据、生成训练数据的代码和超参数开源,模型文件尚未开源。

Alpaca示例

stanford-alpaca的开源地址为:https://github.com/tatsu-lab/stanford_alpaca

ChatLLaMA

ChatLLaMA是由Nebuly+AI推出的基于人类反馈强化学习的LLaMA+AI聊天机器人的开源实现。它的技术路线类似ChatGPT,但主打比ChatGPT训练更快、更便宜,据说能快近15倍。ChatLLaMA的主要特色有:

  • 完整的开源实现,允许用户基于预训练的LLaMA模型构建ChatGPT风格的服务
  • LLaMA架构更小,使得训练过程和推理速度更快,成本更低
  • 内置了对DeepSpeed ZERO的支持,以加速微调过程
  • 支持各种尺寸的LLaMA模型架构,用户可以根据自身偏好对模型进行微调

ChatLLaMA的开源地址为:https://github.com/nebuly-ai/nebullvm/tree/main/apps/accelerate/chatllama

BELLE

BELLE基于Stanford Alpaca,实现了基于Bloom、LLama的监督微调。与Stanford Alpaca的英文种子任务不同,BELLE针对中文做了优化,模型调优仅使用由ChatGPT生产的数据。项目包含以下内容:

  • 175个中文种子任务
  • 生成数据的代码
  • 10M生成的数据,目前开源了1.5M、0.25M数学指令数据集和0.8M多轮任务对话数据集
  • 基于BLOOMZ-7B1-mt、LLama-7B优化后的模型

BELLE示例

BELLE的开源地址为:https://github.com/LianjiaTech/BELLE

Vicuna和Chinese-Vicuna

斯坦福学者联手CMU、UC伯克利等,推出了130亿参数的Vicuna(俗称小羊驼、骆马)。仅需300美元就能实现ChatGPT 90%的性能。Vicuna是通过在ShareGPT收集的用户共享对话上对LLaMA进行微调训练而来,测试过程使用GPT-4作为评判标准。

Vicuna示例

Vicuna的开源地址为:https://github.com/lm-sys/FastChat/

另外,还有一个中文版的Chinese-Vicuna进行了开源,其开源地址为:https://github.com/Facico/Chinese-Vicuna

总的来说,ChatGPT开源平替的发展势头迅猛,从自主研发大模型到基于已有模型微调,都涌现出了众多优秀的项目。这些开源项目为AI研究人员和开发者提供了宝贵的资源,推动了大语言模型技术的普及和应用。随着技术的不断进步,我们可以期待更多创新性的开源项目出现,进一步缩小与商业闭源模型的差距。

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多