deepeval

deepeval

简化LLM输出评估的开源框架

DeepEval是一款开源的大型语言模型(LLM)输出评估框架。它提供G-Eval、幻觉检测和答案相关性等多种评估指标,支持本地运行。该框架适用于RAG和微调应用,可与LangChain和LlamaIndex等工具集成。DeepEval具备批量评估、自定义指标创建功能,易于集成到CI/CD环境。此外,它还支持对主流LLM基准进行简易评估,并可与Confident AI平台对接,实现持续评估和结果分析。

DeepEvalLLM评估开源框架AI测试指标评估Github开源项目
<p align="center"> <img src="https://yellow-cdn.veclightyear.com/2b54e442/6d305ac0-f689-4d77-a0fa-48a4895c7c0b.png" alt="DeepEval标志" width="100%"> </p> <p align="center"> <h1 align="center">LLM评估框架</h1> </p> <p align="center"> <a href="https://discord.com/invite/a3K9c8GRGt"> <img alt="discord邀请" src="https://dcbadge.vercel.app/api/server/a3K9c8GRGt?style=flat"> </a> </p> <h4 align="center"> <p> <a href="https://docs.confident-ai.com/docs/getting-started">文档</a> | <a href="#-指标和功能">指标和功能</a> | <a href="#-快速入门">快速入门</a> | <a href="#-集成">集成</a> | <a href="https://confident-ai.com">Confident AI</a> <p> </h4> <p align="center"> <a href="https://github.com/confident-ai/deepeval/releases"> <img alt="GitHub发布" src="https://yellow-cdn.veclightyear.com/2b54e442/a885ee04-5caa-49a9-aec5-a7ffdfaf9325.svg?color=violet"> </a> <a href="https://colab.research.google.com/drive/1PPxYEBa6eu__LquGoFFJZkhYgWVYE6kh?usp=sharing"> <img alt="在Colab中尝试快速入门" src="https://yellow-cdn.veclightyear.com/2b54e442/668fd193-bf2d-45f7-afdc-47b5208e3947.svg"> </a> <a href="https://github.com/confident-ai/deepeval/blob/master/LICENSE.md"> <img alt="许可证" src="https://yellow-cdn.veclightyear.com/2b54e442/1d7576b0-c2cf-4adb-a455-9d3b54fd49eb.svg?color=yellow"> </a> </p>

DeepEval是一个简单易用的开源LLM评估框架。它类似于Pytest,但专门用于对LLM输出进行单元测试。DeepEval采用最新的研究成果,基于G-Eval、幻觉、答案相关性、RAGAS等指标评估LLM输出,这些指标使用LLM和各种其他NLP模型在本地机器上运行评估。

无论您的应用是通过RAG还是微调实现的,使用LangChain还是LlamaIndex,DeepEval都能满足您的需求。借助它,您可以轻松确定最佳超参数以改进RAG管道,防止提示偏移,甚至可以自信地从OpenAI过渡到托管自己的Llama2。

想讨论LLM评估吗?快来加入我们的Discord。

<br />

🔥 指标和功能

  • 丰富多样的即用型LLM评估指标(均附带解释),由您选择的任何LLM、统计方法或在本地机器上运行的NLP模型提供支持:
    • G-Eval
    • 摘要
    • 答案相关性
    • 忠实度
    • 上下文召回率
    • 上下文精确度
    • RAGAS
    • 幻觉
    • 毒性
    • 偏见
    • 等等
  • 使用不到20行Python代码并行批量评估整个数据集。可以通过CLI以类似Pytest的方式进行,或者使用我们的evaluate()函数。
  • 通过继承DeepEval的基础指标类,创建自定义指标,自动与DeepEval生态系统集成。
  • 任何 CI/CD环境无缝集成。
  • 轻松使用不到10行代码任何LLM进行流行的LLM基准测试,包括:
    • MMLU
    • HellaSwag
    • DROP
    • BIG-Bench Hard
    • TruthfulQA
    • HumanEval
    • GSM8K
  • 自动与Confident AI集成,在LLM(应用)的整个生命周期内进行持续评估:
    • 记录评估结果并分析指标通过/失败情况
    • 根据评估结果比较和选择最佳超参数(如提示模板、块大小、使用的模型等)
    • 通过LLM跟踪调试评估结果
    • 在一处管理评估测试用例/数据集
    • 跟踪事件以识别生产环境中的实时LLM响应
    • 生产环境中的实时评估
    • 将生产事件添加到现有评估数据集以加强评估

(请注意,一些指标适用于RAG,而其他指标更适合微调用例。确保查阅我们的文档以选择正确的指标。)

<br />

🔌 集成

<br />

🚀 快速入门

假设您的LLM应用是一个基于RAG的客户支持聊天机器人;以下是DeepEval如何帮助测试您所构建的内容。

安装

pip install -U deepeval

创建账户(强烈推荐)

虽然可选,但在我们的平台上创建一个账户将允许您记录测试结果,从而轻松跟踪各个迭代过程中的变化和性能。这一步是可选的,即使不登录也可以运行测试用例,但我们强烈建议您尝试一下。

要登录,请运行:

deepeval login

按照CLI中的说明创建账户,复制您的API密钥,并将其粘贴到CLI中。所有测试用例将自动记录(在此处查找有关数据隐私的更多信息)。

编写您的第一个测试用例

创建一个测试文件:

touch test_chatbot.py

打开test_chatbot.py并使用DeepEval编写您的第一个测试用例:

import pytest from deepeval import assert_test from deepeval.metrics import AnswerRelevancyMetric from deepeval.test_case import LLMTestCase def test_case(): answer_relevancy_metric = AnswerRelevancyMetric(threshold=0.5) test_case = LLMTestCase( input="如果这双鞋不合脚怎么办?", # 将此替换为您的LLM应用程序的实际输出 actual_output="我们提供30天全额退款,无需额外费用。", retrieval_context=["所有客户都有资格在30天内全额退款,无需额外费用。"] ) assert_test(test_case, [answer_relevancy_metric])

将您的OPENAI_API_KEY设置为环境变量(您也可以使用自定义模型进行评估,有关更多详细信息,请访问我们文档的这部分):

export OPENAI_API_KEY="..."

最后,在CLI中运行test_chatbot.py

deepeval test run test_chatbot.py

**您的测试应该已通过✅**让我们来分析一下发生了什么。

  • 变量input模拟用户输入,actual_output是根据此查询您的聊天机器人的预期输出的占位符。
  • 变量retrieval_context包含来自您知识库的相关信息,AnswerRelevancyMetric(threshold=0.5)是DeepEval提供的现成指标。它有助于根据提供的上下文评估LLM输出的相关性。
  • 指标分数范围从0到1。threshold=0.5阈值最终决定您的测试是否通过。

阅读我们的文档获取有关如何使用其他指标、创建自定义指标以及与LangChain和LlamaIndex等其他工具集成的教程的更多信息。

<br />

不使用Pytest集成进行评估

或者,您可以不使用Pytest进行评估,这更适合笔记本环境。

from deepeval import evaluate from deepeval.metrics import AnswerRelevancyMetric from deepeval.test_case import LLMTestCase answer_relevancy_metric = AnswerRelevancyMetric(threshold=0.7) test_case = LLMTestCase( input="如果这双鞋不合脚怎么办?", # 将此替换为您的LLM应用程序的实际输出 actual_output="我们提供30天全额退款,无需额外费用。", retrieval_context=["所有客户都有资格在30天内全额退款,无需额外费用。"] ) evaluate([test_case], [answer_relevancy_metric])

使用独立指标

DeepEval具有极高的模块化性,使任何人都可以轻松使用我们的任何指标。继续上一个示例:

from deepeval.metrics import AnswerRelevancyMetric from deepeval.test_case import LLMTestCase answer_relevancy_metric = AnswerRelevancyMetric(threshold=0.7) test_case = LLMTestCase( input="如果这双鞋不合脚怎么办?", # 将此替换为您的LLM应用程序的实际输出 actual_output="我们提供30天全额退款,无需额外费用。", retrieval_context=["所有客户都有资格在30天内全额退款,无需额外费用。"] ) answer_relevancy_metric.measure(test_case) print(answer_relevancy_metric.score) # 大多数指标还提供解释 print(answer_relevancy_metric.reason)

请注意,一些指标适用于RAG管道,而其他指标适用于微调。确保使用我们的文档为您的用例选择正确的指标。

批量评估数据集/测试用例

在DeepEval中,数据集只是测试用例的集合。以下是如何批量评估这些测试用例:

import pytest from deepeval import assert_test from deepeval.metrics import HallucinationMetric, AnswerRelevancyMetric from deepeval.test_case import LLMTestCase from deepeval.dataset import EvaluationDataset first_test_case = LLMTestCase(input="...", actual_output="...", context=["..."]) second_test_case = LLMTestCase(input="...", actual_output="...", context=["..."]) dataset = EvaluationDataset(test_cases=[first_test_case, second_test_case]) @pytest.mark.parametrize( "test_case", dataset, ) def test_customer_chatbot(test_case: LLMTestCase): hallucination_metric = HallucinationMetric(threshold=0.3) answer_relevancy_metric = AnswerRelevancyMetric(threshold=0.5) assert_test(test_case, [hallucination_metric, answer_relevancy_metric])
# 在CLI中运行此命令,您还可以添加可选的-n标志以并行运行测试 deepeval test run test_<filename>.py -n 4
<br/>

或者,虽然我们建议使用deepeval test run,但您也可以不使用我们的Pytest集成来评估数据集/测试用例:

from deepeval import evaluate ... evaluate(dataset, [answer_relevancy_metric]) # 或 dataset.evaluate([answer_relevancy_metric])

Confident AI上的实时评估

我们提供免费的网络平台供您:

  1. 记录并查看DeepEval测试运行的所有测试结果/指标数据。
  2. 通过LLM跟踪调试评估结果。
  3. 比较并选择最佳超参数(提示模板、模型、块大小等)。
  4. 创建、管理和集中您的评估数据集。
  5. 跟踪生产中的事件并扩充您的评估数据集以进行持续评估。
  6. 跟踪生产中的事件,查看评估结果和历史洞察。

Confident AI上的所有内容,包括如何使用Confident,都可以在此处找到。

首先,从CLI登录:

deepeval login

按照说明登录,创建您的账户,并将API密钥粘贴到CLI中。

现在,再次运行您的测试文件:

deepeval test run test_chatbot.py

测试运行完成后,您应该会在CLI中看到一个链接。将其粘贴到浏览器中以查看结果!

![ok](https://yellow-cdn.veclightyear.com/2b54e442/ba036c9f-f1a4-44e0-aba5-76ec

编辑推荐精选

Vora

Vora

免费创建高清无水印Sora视频

Vora是一个免费创建高清无水印Sora视频的AI工具

Refly.AI

Refly.AI

最适合小白的AI自动化工作流平台

无需编码,轻松生成可复用、可变现的AI自动化工作流

酷表ChatExcel

酷表ChatExcel

大模型驱动的Excel数据处理工具

基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。

AI工具酷表ChatExcelAI智能客服AI营销产品使用教程
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
AIWritePaper论文写作

AIWritePaper论文写作

AI论文写作指导平台

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

AI辅助写作AI工具AI论文工具论文写作智能生成大纲数据安全AI助手热门
博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

下拉加载更多