lit

lit

可视化机器学习模型解释工具

LIT是一款开源的机器学习模型解释工具,支持文本、图像和表格数据分析。它提供可视化界面,包括本地解释、聚合分析和反事实生成等功能,助力用户深入理解模型行为。LIT可作为独立服务器运行,也兼容Colab、Jupyter等环境,支持多种模型类型和主流深度学习框架。通过LIT,研究人员可更好地分析模型性能、预测归因和行为一致性。

LIT模型解释可视化交互式机器学习Github开源项目

🔥 学习可解释性工具 (LIT)

学习可解释性工具(🔥LIT,前身为语言可解释性工具)是一个可视化、交互式的机器学习模型理解工具,支持文本、图像和表格数据。它可以作为独立服务器运行,也可以在 Colab、Jupyter 和 Google Cloud Vertex AI 等笔记本环境中运行。

LIT 旨在回答以下问题:

  • 我的模型在哪些类型的例子上表现不佳?
  • **为什么我的模型做出这样的预测?**这个预测是否可归因于对抗性行为,或训练集中不良的先验?
  • 如果我改变文本风格、动词时态或代词性别等因素,我的模型行为是否一致?

LIT 界面示例

LIT 通过基于浏览器的用户界面支持各种调试工作流程。功能包括:

  • 通过显著性图和丰富的模型预测可视化进行局部解释
  • 包括自定义指标、切片和分箱以及嵌入空间可视化的聚合分析
  • 通过手动编辑或生成器插件动态创建和评估新样本的反事实生成
  • 并排模式比较两个或多个模型,或一个模型在一对样本上的表现。
  • 高度可扩展以支持新的模型类型,包括分类、回归、跨度标注、序列到序列和语言建模。开箱即用地支持多头模型和多个输入特征。
  • 与框架无关,兼容 TensorFlow、PyTorch 等。

LIT 有一个网站,提供在线演示、教程、设置指南等。

通过加入 lit-announcements 邮件列表 获取 LIT 的最新信息。

如需更全面的概述,请查看我们的论文用户指南

文档

下载和安装

LIT 可以通过容器镜像运行、通过 pip 安装或从源代码构建。如果您更新了任何前端或核心后端代码,则需要从源代码构建。

构建容器镜像

使用 dockerpodman 构建镜像:

git clone https://github.com/PAIR-code/lit.git && cd lit docker build --file Dockerfile --tag lit-nlp .

查看高级指南了解使用默认 LIT Docker 镜像的详细说明、在不同场景下将 LIT 作为容器化 Web 应用运行的方法,以及如何创建自己的 LIT 镜像。

pip 安装

pip install lit-nlp

pip 安装将安装使用 LIT 核心包所需的所有必要先决条件包。

不会安装提供的演示所需的先决条件,因此您需要自行安装这些包。请参阅 requirements_examples.txt 了解运行演示所需的包列表。

从源代码安装

克隆仓库:

git clone https://github.com/PAIR-code/lit.git && cd lit

注意:确保您运行的是 Python 3.9+。如果您系统上有不同版本,请使用下面的 conda 说明设置 Python 3.9 环境。

使用 venv 设置 Python 环境:

python -m venv .venv source .venv/bin/activate

或使用 conda 设置 Python 环境:

conda create --name lit-nlp conda activate lit-nlp conda install python=3.9 conda install pip

设置好环境后,安装 LIT 的依赖项:

python -m pip install -r requirements.txt python -m pip install cudnn cupti # 可选,用于 GPU 支持 python -m pip install torch # 可选,用于 PyTorch # 构建前端 (cd lit_nlp; yarn && yarn build)

注意:使用 -r requirements.txt 选项安装 LIT 库、其测试套件和内置示例所需的所有依赖项。您也可以使用 -r requirements_core.txt(核心库)、-r requirements_test.txt(测试套件)、-r requirements_examples.txt(示例)和/或它们的任意组合来安装这些依赖项的子集。

注意:如果在 Ubuntu/Debian 上运行 yarn 时看到错误,请确保您已安装正确版本

运行 LIT

演示页面上探索托管的演示集合。

快速入门:分类和回归

要探索来自流行的 GLUE 基准测试的分类和回归模型任务:

python -m lit_nlp.examples.glue.demo --port=5432 --quickstart

导航到 http://localhost:5432 访问 LIT 用户界面。

您的默认视图将是一个在斯坦福情感树库上微调的小型 BERT 模型,但您可以使用工具栏或右上角的齿轮图标切换到 STS-BMultiNLI

然后导航到 http://localhost:5432 访问用户界面。

笔记本使用

lit_nlp/examples/notebooks可以找到展示在笔记本中使用LIT的Colab笔记本。

我们提供了一个简单的Colab演示。运行所有单元格以在笔记本中查看LIT在示例分类模型上的应用。

更多示例

请参阅lit_nlp/examples。大多数示例的运行方式与上面的快速入门示例类似:

python -m lit_nlp.examples.<example_name>.demo --port=5432 [可选 --args]

用户指南

要了解LIT的功能,请查看用户指南,或观看这个视频

添加自己的模型或数据

您可以通过创建自定义的demo.py启动器轻松地使用自己的模型运行LIT,类似于lit_nlp/examples中的那些。基本步骤如下:

  • 编写遵循Dataset API的数据加载器
  • 编写遵循Model API的模型包装器
  • 将模型、数据集和任何额外的组件传递给LIT服务器类

完整的步骤说明,请参阅添加模型和数据

用新组件扩展LIT

LIT可以轻松地通过新的可解释性组件、生成器等进行扩展,无论是在前端还是后端。请查看我们的文档以开始使用。

拉取请求流程

要对LIT进行代码更改,请在dev分支上工作,并针对该分支创建拉取请求(PR)。main分支用于稳定版本,预期dev分支将始终领先于main分支。

鼓励使用草稿PR,尤其是对于首次贡献者或从事复杂任务的贡献者(例如,Google Summer of Code参与者)。请使用这些来与LIT团队交流想法和实现,除了问题之外。

在发送PR或将草稿PR标记为"准备审核"之前,请对您的代码运行Python和TypeScript代码检查工具,以确保符合Google的PythonTypeScript风格指南。

# 从此仓库的根目录使用以下命令在您的代码上运行Pylint pushd lit_nlp & pylint & popd # 从此仓库的根目录使用以下命令在您的代码上运行ESLint pushd lit_nlp & yarn lint & popd

引用LIT

如果您在工作中使用了LIT,请引用我们的EMNLP论文

@misc{tenney2020language,
    title={The Language Interpretability Tool: Extensible, Interactive Visualizations and Analysis for {NLP} Models},
    author={Ian Tenney and James Wexler and Jasmijn Bastings and Tolga Bolukbasi and Andy Coenen and Sebastian Gehrmann and Ellen Jiang and Mahima Pushkarna and Carey Radebaugh and Emily Reif and Ann Yuan},
    booktitle = "Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations",
    year = "2020",
    publisher = "Association for Computational Linguistics",
    pages = "107--118",
    url = "https://www.aclweb.org/anthology/2020.emnlp-demos.15",
}

免责声明

这不是Google的官方产品。

LIT是一个研究项目,由一个小团队积极开发中。可能会有一些错误和不完善之处,但我们在早期阶段就发布了,因为我们认为它已经相当有用了。我们希望LIT成为一个开放的平台,而不是一个封闭的花园,我们非常欢迎您的建议和反馈 - 请在问题中给我们留言。

编辑推荐精选

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

热门AI助手AI对话AI工具聊天机器人
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

下拉加载更多