ZeroEval

ZeroEval

统一评估框架测试语言模型零样本推理

ZeroEval是一个评估语言模型零样本推理能力的统一框架。它通过控制提示、采样和输出解析等因素,在MMLU、GSM等任务上测试指令微调模型的性能。该框架要求模型以JSON格式输出推理过程和答案,并持续扩展评估任务范围。

ZeroEval语言模型评估零样本学习任务性能AI框架Github开源项目

ZeroEval:评估语言模型的统一框架

ZeroEval是一个简单的统一框架,用于评估各种任务中的(大型)语言模型。 这个代码库旨在评估经过指令微调的大型语言模型在各种推理任务(如MMLU和GSM)上的零样本表现。我们通过控制提示、采样、输出解析等因素,使用统一的设置来评估大型语言模型。在ZeroEval中,我们执行零样本提示,并指示语言模型以json格式输出推理过程和答案。我们正在积极添加新的任务。欢迎贡献!

安装

<details> <summary> 点击展开 </summary>
conda create -n zeroeval python=3.10 conda activate zeroeval # pip install vllm -U # pip install -e vllm pip install vllm==0.5.1 pip install -r requirements.txt # export HF_HOME=/path/to/your/custom/cache_dir/
</details>

任务

  • MMLU-redux (-d mmlu-redux)
  • GSM8K (-d gsm)
  • ZebraLogic (-d zebra-grid)
  • CRUX (-d crux)
  • 更多任务将很快添加(例如,ARC、MMLU-Pro等)

使用方法

zero_eval_local.shzero_eval_api.sh是运行评估的两个主要脚本。

示例

  • bash zero_eval_local.sh -d mmlu-redux -m meta-llama/Meta-Llama-3-8B-Instruct -p Meta-Llama-3-8B-Instruct -s 4(在mmlu-redux上使用贪婪解码运行Llama-3-8B-Instruct)

  • bash zero_eval_api.sh -d gsm -f openai -m openai/gpt-4o-mini-2024-07-18 -p gpt-4o-mini-2024-07-18 -s 8(在gsm上使用贪婪解码运行gpt-4o-mini)

  • bash zero_eval_api.sh -d zebra-grid -f openai -m deepseek-chat -p deepseek-chat -s 8(通过openai风格的API运行deepseek-chat,在zebra-grid上使用贪婪解码)

更多示例可以在scripts文件夹中找到,例如scripts/_MMLU_redux.mdscripts/_GSM.md文件以及scripts/local/crux.sh

参数

<details> <summary>命令行参数</summary>
参数描述默认值
-d数据名称:mmlu-redux, gsm, zebra-grid, alpaca_eval, ...(参见src/task_configs.py
-m模型名称
-p模型显示名称
-s分片数量(当-s 1时,我们将使用所有GPU加载模型并运行推理;当-s K时,我们将使用K个GPU,将数据分成K个分片,每个GPU在单个分片上运行推理,最后合并结果。)1
-f引擎(zero_eval_local.sh默认为vllm,可更改为hf;对于zero_eval_api.sh,我们可以使用openaianthropic等)zero_eval_local/api.sh分别默认为vllm/openai
-r运行名称(当指定时,结果将保存在带有run_name的子文件夹中)"default"
-t温度0(贪婪解码)
-o核采样的top_p值1.0
-e重复惩罚1.0
-b批量大小4
</details>

结果

  • MMLU-Redux: python src/evaluation/mcqa_eval.py mmlu-redux --> 完整结果
  • GSM: python src/evaluation/gsm_eval.py --> 完整结果
  • ZebraLogic: python src/evaluation/zebra_grid_eval.py --> 完整结果排行榜
  • CRUX: python src/evaluation/crux.py --> 完整结果
  • 全部: python src/evaluation/summarize.py --> 完整结果 ⬇️ | 模型 | GSM8K | MMLU<br/>-Redux | ZebraLogic<br/>-Easy | CRUX | 平均分 | |:----------------------------|--------:|------------------:|-----------------------:|-------:|----------:| | claude-3-5-sonnet-20240620 | 95.60 | 86.00 | 87.50 | 78.75 | 86.96 | | gpt-4o-2024-05-13 | 95.38 | 88.01 | 77.86 | 83.62 | 86.22 | | Llama-3.1-405B-Inst-fp8 | 95.91 | 85.64 | 87.14 | 72.12 | 85.20 | | Mistral-Large-2 | 95.53 | 82.97 | 80.36 | 72.88 | 82.94 | | gemini-1.5-pro-exp-0801 | 95.00 | 85.53 | 72.50 | 73.00 | 81.51 | | claude-3-opus-20240229 | 95.60 | 82.54 | 78.21 | 68.62 | 81.24 | | Meta-Llama-3.1-70B-Instruct | 94.16 | 82.97 | 73.57 | 62.62 | 78.33 | | deepseek-v2-chat-0628 | 93.93 | 80.81 | 68.57 | 68.50 | 77.95 | | gpt-4o-mini-2024-07-18 | 94.24 | 81.50 | 62.50 | 73.50 | 77.94 | | deepseek-v2-coder-0724 | 91.51 | 80.24 | 61.79 | 67.75 | 75.32 | | Qwen2-72B-Instruct | 92.65 | 81.61 | 63.93 | 57.38 | 73.89 | | claude-3-sonnet-20240229 | 91.51 | 74.87 | 58.93 | 64.75 | 72.52 | | gemini-1.5-flash | 91.36 | 77.36 | 59.29 | 61.88 | 72.47 | | yi-large-preview | 82.64 | 82.15 | 58.93 | 58.63 | 70.59 | | Meta-Llama-3-70B-Instruct | 93.03 | 78.01 | 52.86 | 57.12 | 70.26 | | yi-large | 80.06 | 81.17 | 58.21 | 58.38 | 69.46 | | gemma-2-27b-it | 90.22 | 75.67 | 50.71 | 55.88 | 68.12 | | claude-3-haiku-20240307 | 88.78 | 72.32 | 47.86 | 53.62 | 65.64 | | reka-core-20240501 | 87.41 | 76.42 | 43.21 | 45.00 | 63.01 | | gemma-2-9b-it | 87.41 | 72.82 | 41.79 | 44.88 | 61.72 | | Yi-1.5-34B-Chat | 84.08 | 72.79 | 37.50 | 42.88 | 59.31 | | gpt-3.5-turbo-0125 | 80.36 | 68.36 | 33.57 | 53.25 | 58.88 | | Meta-Llama-3.1-8B-Instruct | 84.00 | 67.24 | 43.57 | 38.75 | 58.39 | | Phi-3-mini-4k-instruct | 75.51 | 70.34 | 38.21 | 43.50 | 56.89 | | Meta-Llama-3-8B-Instruct | 78.47 | 61.66 | 40.71 | 36.62 | 54.37 | | Qwen2-7B-Instruct | 80.06 | 66.92 | 29.29 | 36.75 | 53.26 | | Mixtral-8x7B-Instruct-v0.1 | 70.13 | 63.17 | 28.93 | 43.50 | 51.43 | | reka-flash-20240226 | 74.68 | 64.72 | 30.71 | 33.25 | 50.84 | | Yi-1.5-9B-Chat | 76.42 | 65.05 | 8.21 | 43.75 | 48.36 | | gemma-2-2b-it | 51.63 | 51.94 | 14.29 | 20.75 | 34.65 |

更新日志

  • 2024年8月2日:添加了Gemini 1.5 Pro Exp 0801和CRUX结果
  • 2024年7月31日:添加了Meta-Llama-3.1-70B-Instruct和gemma-2-2b-it
  • 2024年7月29日:添加了Llama-3.1-8B、Mistral-Large-2和deepseek-coder-v2-0724

引用

如果您发现ZeroEval对您有用,请在您的出版物中按以下方式引用:

@software{Lin_ZeroEval_A_Unified_2024, author = {Lin, Bill Yuchen}, month = jul, title = {{ZeroEval: A Unified Framework for Evaluating Language Models}}, url = {https://github.com/yuchenlin/ZeroEval}, year = {2024} }

星标历史

星标历史图表

编辑推荐精选

Vora

Vora

免费创建高清无水印Sora视频

Vora是一个免费创建高清无水印Sora视频的AI工具

Refly.AI

Refly.AI

最适合小白的AI自动化工作流平台

无需编码,轻松生成可复用、可变现的AI自动化工作流

酷表ChatExcel

酷表ChatExcel

大模型驱动的Excel数据处理工具

基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。

AI工具使用教程AI营销产品酷表ChatExcelAI智能客服
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

热门AI工具生产力协作转型TraeAI IDE
AIWritePaper论文写作

AIWritePaper论文写作

AI论文写作指导平台

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

数据安全AI助手热门AI工具AI辅助写作AI论文工具论文写作智能生成大纲
博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

热门AI工具AI办公办公工具智能排版AI生成PPT博思AIPPT海量精品模板AI创作
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

下拉加载更多