WizardLM

WizardLM

增强大型语言模型执行复杂指令的开源项目

WizardLM项目致力于增强大型预训练语言模型处理复杂指令的能力。通过创新训练方法,该项目使模型更好地理解和执行多步骤、高难度任务。WizardLM在编程、数学和通用对话等基准测试中表现卓越。项目开源多个不同规模的模型版本,为语言模型技术的研究与应用提供有力支持。

WizardLM大语言模型指令跟随开源模型人工智能Github开源项目

WizardLM:赋能大型预训练语言模型以执行复杂指令

<p style="font-size:50px;" align="center"> 🏠 <a href="https://wizardlm.github.io/" target="_blank">主页</a> </p> <p align="center"> <p align="center"> 🤗 <a href="https://huggingface.co/WizardLMTeam" target="_blank">HF 仓库</a> • 🐦 <a href="https://twitter.com/WizardLM_AI" target="_blank">Twitter</a> • 📃 <a href="https://arxiv.org/abs/2304.12244" target="_blank">[WizardLM] @ICLR2024</a> • 📃 <a href="https://arxiv.org/abs/2306.08568" target="_blank">[WizardCoder] @ICLR2024</a> • 📃 <a href="https://arxiv.org/abs/2308.09583" target="_blank">[WizardMath]</a> <br> </p> <p align="center"> 👋 加入我们的 <a href="https://discord.gg/VZjjHtWrKs" target="_blank">Discord</a> </p> <p align="center" width="100%"> <a ><img src="https://yellow-cdn.veclightyear.com/835a84d5/6bf8fc53-87be-4f23-9a82-5e60fb198256.png" alt="WizardLM" style="width: 20%; min-width: 300px; display: block; margin: auto;"></a> </p>

代码许可 数据许可 Python 3.9+

非官方视频介绍

感谢热心朋友们,他们的视频介绍更加生动有趣。

  1. 全新 WizardLM 70b 🔥 巨型模型...惊人表现
  2. 立即获取 WizardLM!7B LLM 之王可击败 ChatGPT!我印象深刻!
  3. WizardLM:增强大型语言模型以执行复杂指令
  4. WizardCoder AI 是 ChatGPT 编程的新孪生兄弟!

新闻

  • 🔥🔥🔥[2024/01/04] 我们发布了基于 deepseek-coder-33b-base 训练的 WizardCoder-33B-V1.1,这是 EvalPlus 排行榜 上的最先进的开源代码 LLM,在 HumanEval 上达到 79.9 pass@1,在 HumanEval-Plus 上达到 73.2 pass@1,在 MBPP 上达到 78.9 pass@1,在 MBPP-Plus 上达到 66.9 pass@1WizardCoder-33B-V1.1 在 HumanEval 和 HumanEval-Plus pass@1 上优于 ChatGPT 3.5Gemini ProDeepSeek-Coder-33B-instructWizardCoder-33B-V1.1 在 MBPP 和 MBPP-Plus pass@1 上与 ChatGPT 3.5 相当,并超越了 Gemini Pro

  • [2023/08/26] 我们发布了 WizardCoder-Python-34B-V1.0,它在 HumanEval 基准测试 上达到了 73.2 pass@1,超越了 GPT4 (2023/03/15)ChatGPT-3.5Claude2。更多详情请参考 WizardCoder

  • [2023/06/16] 我们发布了 WizardCoder-15B-V1.0,它在 HumanEval 基准测试 上超越了 Claude-Plus (+6.8)Bard (+15.3)InstructCodeT5+ (+22.3)。更多详情请参考 WizardCoder。 | 模型 | 检查点 | 论文 | HumanEval | HumanEval+ | MBPP | MBPP+ | | ----- |------| ---- |------|-------| ----- | ----- | | GPT-4-Turbo (2023年11月) | - | - | 85.4 | 81.7 | 83.0 | 70.7 | | GPT-4 (2023年5月) | - | - | 88.4 | 76.8 | - | - | | GPT-3.5-Turbo (2023年11月) | - | - | 72.6 | 65.9 | 81.7 | 69.4 | | Gemini Pro | - | - | 63.4 | 55.5 | 72.9 | 57.9 | | DeepSeek-Coder-33B-instruct | - | - | 78.7 | 72.6 | 78.7 | 66.7 | | WizardCoder-33B-V1.1 | 🤗 <a href="https://huggingface.co/WizardLM/WizardCoder-33B-V1.1" target="_blank">HF链接</a> | 📃 <a href="https://arxiv.org/abs/2306.08568" target="_blank">[WizardCoder]</a> | 79.9 | 73.2 | 78.9 | 66.9 | | WizardCoder-Python-34B-V1.0 | 🤗 <a href="https://huggingface.co/WizardLM/WizardCoder-Python-34B-V1.0" target="_blank">HF链接</a> | 📃 <a href="https://arxiv.org/abs/2306.08568" target="_blank">[WizardCoder]</a> | 73.2 | 64.6 | 73.2 | 59.9 | | WizardCoder-15B-V1.0 | 🤗 <a href="https://huggingface.co/WizardLM/WizardCoder-15B-V1.0" target="_blank">HF链接</a> | 📃 <a href="https://arxiv.org/abs/2306.08568" target="_blank">[WizardCoder]</a> | 59.8 | 52.4 | -- | -- | | WizardCoder-Python-13B-V1.0 | 🤗 <a href="https://huggingface.co/WizardLM/WizardCoder-Python-13B-V1.0" target="_blank">HF链接</a> | 📃 <a href="https://arxiv.org/abs/2306.08568" target="_blank">[WizardCoder]</a> | 64.0 | -- | -- | -- | | WizardCoder-Python-7B-V1.0 | 🤗 <a href="https://huggingface.co/WizardLM/WizardCoder-Python-7B-V1.0" target="_blank">HF链接</a> | 📃 <a href="https://arxiv.org/abs/2306.08568" target="_blank">[WizardCoder]</a> | 55.5 | -- | -- | -- | | WizardCoder-3B-V1.0 | 🤗 <a href="https://huggingface.co/WizardLM/WizardCoder-3B-V1.0" target="_blank">HF链接</a> | 📃 <a href="https://arxiv.org/abs/2306.08568" target="_blank">[WizardCoder]</a> | 34.8 | -- | -- | -- | | WizardCoder-1B-V1.0 | 🤗 <a href="https://huggingface.co/WizardLM/WizardCoder-1B-V1.0" target="_blank">HF链接</a> | 📃 <a href="https://arxiv.org/abs/2306.08568" target="_blank">[WizardCoder]</a> | 23.8 | -- | -- | -- |

  • [2023年12月19日] 🔥 我们发布了基于Mistral-7B训练的WizardMath-7B-V1.1,这是最先进的7B数学大语言模型,在GSM8k上达到83.2 pass@1,在MATH上达到33.0 pass@1

  • [2023年12月19日] 🔥 WizardMath-7B-V1.1在GSM8K pass@1上的表现超过了ChatGPT 3.5Gemini ProMixtral MOEClaude Instant

  • [2023年12月19日] 🔥 WizardMath-7B-V1.1在MATH pass@1上的表现与ChatGPT 3.5Gemini Pro相当,并超过了Mixtral MOE

  • 🔥 我们的WizardMath-70B-V1.0模型在GSM8K上的表现略微超过了一些闭源大语言模型,包括ChatGPT 3.5Claude Instant 1PaLM 2 540B

  • 🔥 我们的WizardMath-70B-V1.0模型在GSM8k基准测试上达到了81.6 pass@1,比最先进的开源大语言模型高出24.8个百分点。

  • 🔥 我们的WizardMath-70B-V1.0模型在MATH基准测试上达到了22.7 pass@1,比最先进的开源大语言模型高出9.2个百分点。 | 模型 | 检查点 | 论文 | GSM8k | MATH | | ----- |------| ---- |------|-------| | WizardMath-7B-V1.1 | 🤗 <a href="https://huggingface.co/WizardLM/WizardMath-7B-V1.1" target="_blank">HF链接</a> | 📃 <a href="https://arxiv.org/abs/2308.09583" target="_blank">[WizardMath]</a> | 83.2 | 33.0 | | WizardMath-70B-V1.0 | 🤗 <a href="https://huggingface.co/WizardLM/WizardMath-70B-V1.0" target="_blank">HF链接</a> | 📃 <a href="https://arxiv.org/abs/2308.09583" target="_blank">[WizardMath]</a> | 81.6 | 22.7 | | WizardMath-13B-V1.0 | 🤗 <a href="https://huggingface.co/WizardLM/WizardMath-13B-V1.0" target="_blank">HF链接</a> | 📃 <a href="https://arxiv.org/abs/2308.09583" target="_blank">[WizardMath]</a> | 63.9 | 14.0 | | WizardMath-7B-V1.0 | 🤗 <a href="https://huggingface.co/WizardLM/WizardMath-7B-V1.0" target="_blank">HF链接</a> | 📃 <a href="https://arxiv.org/abs/2308.09583" target="_blank">[WizardMath]</a> | 54.9 | 10.7 |

  • [2023年8月9日] 我们发布了 WizardLM-70B-V1.0 模型。这里是完整模型权重

<font size=0.5>
<sup>模型</sup><sup>检查点</sup><sup>论文</sup><sup>MT-Bench</sup><sup>AlpacaEval</sup><sup>GSM8k</sup><sup>HumanEval</sup><sup>演示</sup><sup>许可证</sup>
<sup>WizardLM-70B-V1.0</sup><sup>🤗 <a href="https://huggingface.co/WizardLM/WizardLM-70B-V1.0" target="_blank">HF链接</a> </sup><sup>📃即将推出</sup><sup>7.78</sup><sup>92.91%</sup><sup>77.6%</sup><sup>50.6</sup><sup><a href="https://ai.meta.com/resources/models-and-libraries/llama-downloads/" target="_blank">Llama 2 许可证</a></sup>
<sup>WizardLM-13B-V1.2</sup><sup>🤗 <a href="https://huggingface.co/WizardLM/WizardLM-13B-V1.2" target="_blank">HF链接</a> </sup><sup>7.06</sup><sup>89.17%</sup><sup>55.3%</sup><sup>36.6</sup>演示<sup><a href="https://ai.meta.com/resources/models-and-libraries/llama-downloads/" target="_blank">Llama 2 许可证</a></sup>
<sup>WizardLM-13B-V1.1</sup><sup>🤗 <a href="https://huggingface.co/WizardLM/WizardLM-13B-V1.1" target="_blank">HF链接</a> </sup><sup>6.76</sup><sup>86.32%</sup><sup>25.0</sup><sup>非商业用途</sup>
<sup>WizardLM-30B-V1.0</sup><sup>🤗 <a href="https://huggingface.co/WizardLM/WizardLM-30B-V1.0" target="_blank">HF链接</a></sup><sup>7.01</sup><sup>37.8</sup><sup>非商业用途</sup>
<sup>WizardLM-13B-V1.0</sup><sup>🤗 <a href="https://huggingface.co/WizardLM/WizardLM-13B-V1.0" target="_blank">HF链接</a> </sup><sup>6.35</sup><sup>75.31%</sup><sup>24.0</sup><sup>非商业用途</sup>
<sup>WizardLM-7B-V1.0</sup><sup>🤗 <a href="https://huggingface.co/WizardLM/WizardLM-7B-V1.0" target="_blank">HF链接</a> </sup><sup>📃 <a href="https://arxiv.org/abs/2304.12244" target="_blank">[WizardLM]</a> </sup><sup>19.1</sup><sup>非商业用途</sup>
</font>

引用

如果您使用了WizardLM的数据或代码,请引用以下论文。

@inproceedings{
xu2024wizardlm,
title={WizardLM: Empowering Large Pre-Trained Language Models to Follow Complex Instructions},
author={Can Xu and Qingfeng Sun and Kai Zheng and Xiubo Geng and Pu Zhao and Jiazhan Feng and Chongyang Tao and Qingwei Lin and Daxin Jiang},
booktitle={The Twelfth International Conference on Learning Representations},
year={2024},
url={https://openreview.net/forum?id=CfXh93NDgH}
}

如果您使用了WizardCoder的数据或代码,请引用以下论文。

@inproceedings{
luo2024wizardcoder,
title={WizardCoder: Empowering Code Large Language Models with Evol-Instruct},
author={Ziyang Luo and Can Xu and Pu Zhao and Qingfeng Sun and Xiubo Geng and Wenxiang Hu and Chongyang Tao and Jing Ma and Qingwei Lin and Daxin Jiang},
booktitle={The Twelfth International Conference on Learning Representations},
year={2024},
url={https://openreview.net/forum?id=UnUwSIgK5W}
}

如果您参考了WizardMath的模型、代码、数据或论文,请引用该论文。

@article{luo2023wizardmath,
  title={WizardMath: 通过强化进化指令增强大型语言模型的数学推理能力},
  author={Luo, Haipeng and Sun, Qingfeng and Xu, Can and Zhao, Pu and Lou, Jianguang and Tao, Chongyang and Geng, Xiubo and Lin, Qingwei and Chen, Shifeng and Zhang, Dongmei},
  journal={arXiv预印本 arXiv:2308.09583},
  year={2023}
}

❗关于数据集的常见关注点:

最近,我们整个组织在代码、数据和模型的开源政策和规定方面发生了明显变化。 尽管如此,我们仍然努力争取首先开放模型权重,但数据涉及更严格的审核,目前正由我们的法律团队审核中。 我们的研究人员无权未经授权公开发布这些数据。 感谢您的理解。

招聘

  • 📣 我们正在寻找高度积极的学生加入我们,成为实习生,一起创造更智能的人工智能。请联系caxu@microsoft.com

<b>模型系统提示使用说明:</b>

为获得与我们演示完全相同的结果,请严格按照"src/infer_wizardlm13b.py"中提供的提示和调用方法使用我们的模型进行推理。我们的模型采用<b>Vicuna</b>的提示格式,支持多轮对话。

<b>对于WizardLM</b>,提示应如下所示:

一个好奇的用户和一个人工智能助手之间的对话。助手对用户的问题给出有帮助、详细和礼貌的回答。用户:你好 助手:你好。</s>用户:你是谁? 助手:我是WizardLM。</s>......

<b>对于WizardCoder</b>,提示应如下所示:

"以下是描述一个任务的指令。写一个恰当完成该请求的回应。\n\n### 指令:\n{instruction}\n\n### 回应:"

<b>对于WizardMath</b>,提示应如下所示:

默认版本:

"以下是描述一个任务的指令。写一个恰当完成该请求的回应。\n\n### 指令:\n{instruction}\n\n### 回应:"

CoT版本:(❗对于简单的数学问题,我们不建议使用CoT提示。)

"以下是描述一个任务的指令。写一个恰当完成该请求的回应。\n\n### 指令:\n{instruction}\n\n### 回应:让我们一步步思考。"

GPT-4自动评估

我们采用FastChat提出的基于GPT-4的自动评估框架来评估聊天机器人模型的性能。如下图所示,WizardLM-30B取得了比Guanaco-65B更好的结果。

WizardLM-30B在不同技能上的表现

下图比较了WizardLM-30B和ChatGPT在Evol-Instruct测试集上的技能。结果表明,WizardLM-30B平均达到了ChatGPT性能的97.8%,在18项技能上几乎达到(或超过)100%的能力,在24项技能上超过90%的能力。

WizardLM在NLP基础任务上的表现

下表提供了WizardLM与其他LLM在NLP基础任务上的比较。结果表明,WizardLM在相同规模上持续展现出优于LLaMa模型的性能。此外,我们的WizardLM-30B模型在MMLU和HellaSwag基准测试上表现出与OpenAI的Text-davinci-003相当的性能。

WizardLM在代码生成上的表现

下表提供了WizardLM与其他几个LLM在代码生成任务(即HumanEval)上的全面比较。评估指标是pass@1。结果表明,WizardLM在相同规模上持续展现出优于LLaMa模型的性能。此外,我们的WizardLM-30B模型超越了StarCoder和OpenAI的code-cushman-001。而且,我们的代码LLM——WizardCoder表现卓越,达到了57.3的pass@1分数,超过开源SOTA约20分。

模型HumanEval Pass@1
LLaMA-7B10.5
LLaMA-13B15.8
CodeGen-16B-Multi18.3
CodeGeeX22.9
LLaMA-33B21.7
LLaMA-65B23.7
PaLM-540B26.2
CodeGen-16B-Mono29.3
code-cushman-00133.5
StarCoder<u>33.6</u>
WizardLM-7B 1.019.1
WizardLM-13B 1.024.0
WizardLM-30B 1.037.8
WizardCoder-15B 1.057.3

征集反馈意见

我们欢迎大家使用专业和困难的指令来评估WizardLM,并在问题讨论区域向我们展示表现不佳的例子以及您的建议。我们目前正专注于改进Evol-Instruct,希望在下一版本的WizardLM中缓解现有的弱点和问题。之后,我们将开放最新Evol-Instruct算法的代码和流程,与您一起努力改进它。

Evol-Instruct概述

Evol-Instruct是一种新颖的方法,使用大型语言模型(LLMs)而不是人类来自动大规模生产各种难度级别和技能范围的开放域指令,以提高LLMs的性能。您可以使用我们提供的Evol Script轻松开始您自己的进化之旅。

<p align="center" width="100%"> <a ><img src="https://yellow-cdn.veclightyear.com/835a84d5/c14396d4-c6bd-4172-aca1-ef9ece8df198.png" alt="WizardLM" style="width: 86%; min-width: 300px; display: block; margin: auto;"></a> </p> <p align="center" width="100%"> <a ><img src="https://yellow-cdn.veclightyear.com/835a84d5/986bb3f9-126a-444c-a73f-c762a6818669.png" alt="WizardLM" style="width: 86%; min-width: 300px; display: block; margin: auto;"></a> </p>

免责声明

与本项目相关的资源,包括代码、数据和模型权重,仅限于学术研究目的,不得用于商业用途。WizardLM的任何版本产生的内容受不可控变量(如随机性)的影响,因此本项目不能保证输出的准确性。本项目不承担模型输出内容的任何法律责任,也不对使用相关资源和输出结果造成的任何损失承担责任。

Star历史

Star历史图表

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多