super-json-mode

super-json-mode

以并行方式高效生成JSON结构化输出的Python框架

Super JSON Mode 是一个通过将目标结构分解为原子组件来并行生成JSON输出的Python框架。相比传统的JSON生成方法,该框架提高了生成速度达10倍,同时减少了解析问题。它支持包括OpenAI和Hugging Face Transformers在内的主流LLM, 以及开源LLM如vLLM。安装只需运行pip命令,详细的使用说明和示例代码请参见项目文档。

Super JSON ModeOpenAIHugging Face TransformersvLLM并行生成Github开源项目

项目介绍:Super JSON Mode

Super JSON Mode 是一款Python框架,旨在通过将目标模式分解为原子组件,并行生成,从而高效创建结构化输出。它支持最先进的大型语言模型(LLM),如通过OpenAI的旧式API和开源的大型语言模型,比如通过Hugging Face TransformersvLLM。更多的LLM支持也即将上线!

与依赖于提示和HF Transformers的简单JSON生成管道相比,Super JSON Mode能够快10倍地生成输出。在确定性和解析问题上,它也比简单生成方法表现得更好。

工作原理

结构化输出格式,比如JSON或YAML,具有固有的并行或层次结构。考虑以下由GPT-4生成的非结构化段落:

欢迎来到123 Azure Lane,这是一套位于旧金山的令人惊叹的住宅,以其绝妙的现代设计,售价2,500,000美元。占地豪华3000平方英尺,这处房产结合了精致和舒适,创造了独特的生活体验。

对于家庭或专业人士来说,这是一处理想的家园。我们的独家住宅设有五间宽敞的卧室,每一间都散发着温暖和现代优雅。卧室经过精心设计,以便自然光充足,还有充裕的储物空间。住宅中有三间精美设计的全套浴室,为住户提供便利与隐私。

宏大的入口将您引入宽敞的生活区域,提供了举办聚会或享受宁静夜晚的绝佳氛围。厨师级厨房配备最先进的电器、定制橱柜和美丽的花岗岩台面,梦想成真。

如果我们希望使用LLM提取地址平方英尺卧室数量浴室数量以及价格,可以请模型根据描述填写进一个模式。

一个可能的模式(如Pydantic对象生成的)可能如下:

{ "address": { "type": "string" }, "price": { "type": "number" }, "square_feet": { "type": "integer" }, "num_beds": { "type": "integer" }, "num_baths": { "type": "integer" } }

一个有效的输出可能是:

{ "address": "123 Azure Lane", "price": 2500000, "square_feet": 3000, "num_beds": 5, "num_baths": 3 }

通常的方法是将该模式嵌入提示中,请模型填写。然而,这种方法在几个方面效率不高。

  1. 各个键值对是彼此独立的。Super JSON Mode利用提示并行性,将每个键值对视为独立查询。例如,可以在不生成地址的情况下提取浴室数量

  2. 请求模型从头生成JSON,徒然耗费了预测的语法,如大括号和键名,这些在输出中是已知的。我们可以利用此强先验来提高延迟。

  3. LLMs能在并行运行时大幅度提高速度,因此,我们可以将模式分割为多个查询,让LLM并行填充每个独立键的模式,减少单次传递的标记数量,从而达到更快的推理时间。

安装指南

通过 PyPI

运行以下命令:

pip install super-json-mode

手动安装

  1. 创建一个conda环境
conda create --name superjsonmode python=3.10 -y
conda activate superjsonmode
  1. 克隆并安装依赖
git clone https://github.com/varunshenoy/super-json-mode
cd superjsonmode
pip install -r requirements.txt

使用示例

我们努力让Super JSON Mode变得超级易于使用。查看examples文件夹以获取更多示例和vLLM的用法。

使用OpenAI和gpt-3-instruct-turbo

from superjsonmode.integrations.openai import StructuredOpenAIModel from pydantic import BaseModel import time model = StructuredOpenAIModel() class Character(BaseModel): name: str genre: str age: int race: str occupation: str best_friend: str home_planet: str prompt_template = """{prompt} Please fill in the following information about this character for this key. Keep it succinct. It should be a {type}. {key}: """ prompt = """Luke Skywalker is a famous character.""" start = time.time() output = model.generate( prompt, extraction_prompt_template=prompt_template, schema=Character, batch_size=7, stop=["\n\n"], temperature=0, ) print(f"Total time: {time.time() - start}") # Total Time: 0.409s print(output)

使用Mistral 7B结合HuggingFace Transformers:

from transformers import AutoTokenizer, AutoModelForCausalLM from superjsonmode.integrations.transformers import StructuredOutputForModel from pydantic import BaseModel device = "cuda" model = AutoModelForCausalLM.from_pretrained("mistralai/Mistral-7B-Instruct-v0.2").to(device) tokenizer = AutoTokenizer.from_pretrained("mistralai/Mistral-7B-Instruct-v0.2") structured_model = StructuredOutputForModel(model, tokenizer) class QuarterlyReport(BaseModel): company: str stock_ticker: str date: str reported_revenue: str dividend: str prompt_template = """[INST]{prompt} Based on this excerpt, extract the correct value for "{key}". Keep it succinct. It should have a type of `{type}`.[/INST] {key}: """ output = structured_model.generate(passage, extraction_prompt_template=prompt_template, schema=QuarterlyReport, batch_size=6) print(json.dumps(output, indent=2))

未来计划

还有许多功能可以改进Super JSON Mode,以下是一些想法:

  • 定性输出分析:我们进行了性能基准测试,但希望提出更严格的方法来评估Super JSON Mode的定性输出。
  • 结构化采样:理想情况下,我们应屏蔽LLM的对数几率以支持类型限制,类似于JSONFormer。
  • 依赖图支持:处理思考回应这种需要依赖关系的键。应能传递一个依赖关系图并以特定顺序完成提示。
  • 本地模型支持:Super JSON Mode在本地环境,尤其是在批量大小为1的情况下表现更佳。
  • TRT-LLM支持:尽管vLLM不错且易于使用,我们理想上希望与更高性能的框架集成。

引用

如果您在工作中发现此库有用,我们将非常感谢您引用此仓库:

@misc{ShenoyDerhacobian2024,
  author = {Shenoy, Varun and Derhacobian, Alex},
  title = {Super JSON Mode: A Framework for Accelerated Structured Output Generation},
  year = {2024},
  publisher = {GitHub},
  journal = {GitHub repository},
  howpublished = {\url{https://github.com/varunshenoy/super-json-mode}}
}

该项目为CS 229: Systems for Machine Learning的一部分,由指导教师和助教的指导下完成。

编辑推荐精选

博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

下拉加载更多