evals

evals

开源框架助力大型语言模型性能评估

evals是一个开源框架,用于评估大型语言模型(LLM)及其衍生系统。该框架提供评估注册表,支持测试OpenAI模型的多个维度,同时允许用户创建自定义评估。开发者可利用私有数据构建评估,无需公开敏感信息。evals能够帮助开发者深入分析不同模型版本对特定应用场景的影响,对LLM开发过程具有重要价值。

OpenAI EvalsLLM评估API密钥评估框架Git-LFSGithub开源项目

OpenAI 评估

评估为大型语言模型(LLM)或基于LLM构建的系统提供评估框架。我们提供现有的评估注册表,用于测试OpenAI模型的不同维度,并且可以编写自定义评估以满足您关心的用例。您还可以使用自己的数据构建私有评估,这些评估代表您工作流程中常见的LLM模式,而无需公开暴露任何数据。

如果您正在使用LLM进行构建,创建高质量的评估是您可以做的最有影响力的事情之一。没有评估,很难理解不同模型版本如何影响您的用例,而且可能非常耗时。用OpenAI总裁Greg Brockman的话说:

<img width="596" alt="https://x.com/gdb/status/1733553161884127435?s=20" src="https://github.com/openai/evals/assets/35577566/ce7840ff-43a8-4d88-bb2f-6b207410333b">

设置

要运行评估,您需要设置并指定您的OpenAI API密钥。获得API密钥后,请使用OPENAI_API_KEY环境变量指定它。运行评估时,请注意使用API所产生的成本。您还可以使用Weights & Biases运行和创建评估。

最低要求版本:Python 3.9

下载评估

我们的评估注册表使用Git-LFS存储。下载并安装LFS后,您可以在本地evals仓库副本中使用以下命令获取评估:

cd evals git lfs fetch --all git lfs pull

这将填充evals/registry/data下的所有指针文件。

如果您只想获取特定评估的数据,可以通过以下方式实现:

git lfs fetch --include=evals/registry/data/${your eval} git lfs pull

创建评估

如果您要创建评估,我们建议直接从GitHub克隆此仓库,并使用以下命令安装要求:

pip install -e .

使用-e,您对评估所做的更改将立即生效,无需重新安装。

可选地,您可以安装用于预提交的格式化程序:

pip install -e .[formatters]

然后运行pre-commit install将pre-commit安装到您的git钩子中。pre-commit现在将在每次提交时运行。

如果您想手动对仓库运行所有pre-commit钩子,请运行pre-commit run --all-files。要运行单个钩子,请使用pre-commit run <hook_id>。

运行评估

如果您不想贡献新的评估,而只想在本地运行它们,可以通过pip安装evals包:

pip install evals

您可以在run-evals.md中找到运行现有评估的完整说明,在eval-templates.md中找到我们现有的评估模板。对于更高级的用例,如提示链或使用工具的代理,您可以使用我们的完成函数协议。

我们提供选项让您将评估结果记录到Snowflake数据库中,如果您有或想设置一个的话。对于此选项,您还需要指定SNOWFLAKE_ACCOUNT、SNOWFLAKE_DATABASE、SNOWFLAKE_USERNAME和SNOWFLAKE_PASSWORD环境变量。

编写评估

我们建议从以下方面入手:

  • 完成构建评估的流程:build-eval.md
  • 探索实现自定义评估逻辑的示例:custom-eval.md
  • 编写您自己的完成函数:completion-fns.md
  • 查看我们的评估编写入门指南:OpenAI Evals入门

请注意,我们目前不接受带有自定义代码的评估!虽然我们暂时要求您不要提交此类评估,但您仍可以使用自定义模型评分YAML文件提交模型评分评估。

如果您认为您有一个有趣的评估,请开启一个拉取请求提交您的贡献。OpenAI员工在考虑改进即将推出的模型时会积极审查这些评估。

常见问题

您有从头到尾构建评估的示例吗?

  • 有的!这些在examples文件夹中。我们建议您也阅读build-eval.md,以深入了解这些示例中发生的情况。

您有以多种不同方式实现的评估示例吗?

  • 有的!特别是,请参阅evals/registry/evals/coqa.yaml。我们为各种评估模板实现了CoQA数据集的小子集,以帮助说明差异。

当我运行评估时,有时在最后(最终报告之后)会卡住。这是怎么回事?

  • 这是一个已知问题,但您应该能够安全地中断它,评估应该在之后立即完成。

代码太多,我只想快速启动一个评估。有什么建议吗?或者,

我是一名世界级的提示工程师。我选择不编码。我如何贡献我的智慧?

  • 如果您遵循现有的评估模板来构建基本或模型评分评估,您根本不需要编写任何评估代码!只需以JSON格式提供数据并在YAML中指定评估参数即可。build-eval.md会引导您完成这些步骤,您可以参考examples文件夹中的Jupyter笔记本来快速入门。请记住,一个好的评估inevitably需要仔细思考和严格实验!

免责声明

通过贡献评估,您同意使您的评估逻辑和数据采用与本仓库相同的MIT许可。您必须拥有足够的权利来上传评估中使用的任何数据。OpenAI保留在未来的服务改进中使用这些数据的权利。对OpenAI评估的贡献将受我们通常的使用政策约束:https://platform.openai.com/docs/usage-policies。

编辑推荐精选

lynote.ai

lynote.ai

一站式搞定所有学习需求

不再被海量信息淹没,开始真正理解知识。Lynote 可摘要 YouTube 视频、PDF、文章等内容。即时创建笔记,检测 AI 内容并下载资料,将您的学习效率提升 10 倍。

AniShort

AniShort

为AI短剧协作而生

专为AI短剧协作而生的AniShort正式发布,深度重构AI短剧全流程生产模式,整合创意策划、制作执行、实时协作、在线审片、资产复用等全链路功能,独创无限画布、双轨并行工业化工作流与Ani智能体助手,集成多款主流AI大模型,破解素材零散、版本混乱、沟通低效等行业痛点,助力3人团队效率提升800%,打造标准化、可追溯的AI短剧量产体系,是AI短剧团队协同创作、提升制作效率的核心工具。

seedancetwo2.0

seedancetwo2.0

能听懂你表达的视频模型

Seedance two是基于seedance2.0的中国大模型,支持图像、视频、音频、文本四种模态输入,表达方式更丰富,生成也更可控。

nano-banana纳米香蕉中文站

nano-banana纳米香蕉中文站

国内直接访问,限时3折

输入简单文字,生成想要的图片,纳米香蕉中文站基于 Google 模型的 AI 图片生成网站,支持文字生图、图生图。官网价格限时3折活动

扣子-AI办公

扣子-AI办公

职场AI,就用扣子

AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!

堆友

堆友

多风格AI绘画神器

堆友平台由阿里巴巴设计团队创建,作为一款AI驱动的设计工具,专为设计师提供一站式增长服务。功能覆盖海量3D素材、AI绘画、实时渲染以及专业抠图,显著提升设计品质和效率。平台不仅提供工具,还是一个促进创意交流和个人发展的空间,界面友好,适合所有级别的设计师和创意工作者。

图像生成热门AI工具AI图像AI反应堆AI工具箱AI绘画GOAI艺术字堆友相机
码上飞

码上飞

零代码AI应用开发平台

零代码AI应用开发平台,用户只需一句话简单描述需求,AI能自动生成小程序、APP或H5网页应用,无需编写代码。

Vora

Vora

免费创建高清无水印Sora视频

Vora是一个免费创建高清无水印Sora视频的AI工具

Refly.AI

Refly.AI

最适合小白的AI自动化工作流平台

无需编码,轻松生成可复用、可变现的AI自动化工作流

酷表ChatExcel

酷表ChatExcel

大模型驱动的Excel数据处理工具

基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。

AI工具使用教程AI营销产品酷表ChatExcelAI智能客服
下拉加载更多