super-json-mode

super-json-mode

以并行方式高效生成JSON结构化输出的Python框架

Super JSON Mode 是一个通过将目标结构分解为原子组件来并行生成JSON输出的Python框架。相比传统的JSON生成方法,该框架提高了生成速度达10倍,同时减少了解析问题。它支持包括OpenAI和Hugging Face Transformers在内的主流LLM, 以及开源LLM如vLLM。安装只需运行pip命令,详细的使用说明和示例代码请参见项目文档。

Super JSON ModeOpenAIHugging Face TransformersvLLM并行生成Github开源项目

项目介绍:Super JSON Mode

Super JSON Mode 是一款Python框架,旨在通过将目标模式分解为原子组件,并行生成,从而高效创建结构化输出。它支持最先进的大型语言模型(LLM),如通过OpenAI的旧式API和开源的大型语言模型,比如通过Hugging Face TransformersvLLM。更多的LLM支持也即将上线!

与依赖于提示和HF Transformers的简单JSON生成管道相比,Super JSON Mode能够快10倍地生成输出。在确定性和解析问题上,它也比简单生成方法表现得更好。

工作原理

结构化输出格式,比如JSON或YAML,具有固有的并行或层次结构。考虑以下由GPT-4生成的非结构化段落:

欢迎来到123 Azure Lane,这是一套位于旧金山的令人惊叹的住宅,以其绝妙的现代设计,售价2,500,000美元。占地豪华3000平方英尺,这处房产结合了精致和舒适,创造了独特的生活体验。

对于家庭或专业人士来说,这是一处理想的家园。我们的独家住宅设有五间宽敞的卧室,每一间都散发着温暖和现代优雅。卧室经过精心设计,以便自然光充足,还有充裕的储物空间。住宅中有三间精美设计的全套浴室,为住户提供便利与隐私。

宏大的入口将您引入宽敞的生活区域,提供了举办聚会或享受宁静夜晚的绝佳氛围。厨师级厨房配备最先进的电器、定制橱柜和美丽的花岗岩台面,梦想成真。

如果我们希望使用LLM提取地址平方英尺卧室数量浴室数量以及价格,可以请模型根据描述填写进一个模式。

一个可能的模式(如Pydantic对象生成的)可能如下:

{ "address": { "type": "string" }, "price": { "type": "number" }, "square_feet": { "type": "integer" }, "num_beds": { "type": "integer" }, "num_baths": { "type": "integer" } }

一个有效的输出可能是:

{ "address": "123 Azure Lane", "price": 2500000, "square_feet": 3000, "num_beds": 5, "num_baths": 3 }

通常的方法是将该模式嵌入提示中,请模型填写。然而,这种方法在几个方面效率不高。

  1. 各个键值对是彼此独立的。Super JSON Mode利用提示并行性,将每个键值对视为独立查询。例如,可以在不生成地址的情况下提取浴室数量

  2. 请求模型从头生成JSON,徒然耗费了预测的语法,如大括号和键名,这些在输出中是已知的。我们可以利用此强先验来提高延迟。

  3. LLMs能在并行运行时大幅度提高速度,因此,我们可以将模式分割为多个查询,让LLM并行填充每个独立键的模式,减少单次传递的标记数量,从而达到更快的推理时间。

安装指南

通过 PyPI

运行以下命令:

pip install super-json-mode

手动安装

  1. 创建一个conda环境
conda create --name superjsonmode python=3.10 -y
conda activate superjsonmode
  1. 克隆并安装依赖
git clone https://github.com/varunshenoy/super-json-mode
cd superjsonmode
pip install -r requirements.txt

使用示例

我们努力让Super JSON Mode变得超级易于使用。查看examples文件夹以获取更多示例和vLLM的用法。

使用OpenAI和gpt-3-instruct-turbo

from superjsonmode.integrations.openai import StructuredOpenAIModel from pydantic import BaseModel import time model = StructuredOpenAIModel() class Character(BaseModel): name: str genre: str age: int race: str occupation: str best_friend: str home_planet: str prompt_template = """{prompt} Please fill in the following information about this character for this key. Keep it succinct. It should be a {type}. {key}: """ prompt = """Luke Skywalker is a famous character.""" start = time.time() output = model.generate( prompt, extraction_prompt_template=prompt_template, schema=Character, batch_size=7, stop=["\n\n"], temperature=0, ) print(f"Total time: {time.time() - start}") # Total Time: 0.409s print(output)

使用Mistral 7B结合HuggingFace Transformers:

from transformers import AutoTokenizer, AutoModelForCausalLM from superjsonmode.integrations.transformers import StructuredOutputForModel from pydantic import BaseModel device = "cuda" model = AutoModelForCausalLM.from_pretrained("mistralai/Mistral-7B-Instruct-v0.2").to(device) tokenizer = AutoTokenizer.from_pretrained("mistralai/Mistral-7B-Instruct-v0.2") structured_model = StructuredOutputForModel(model, tokenizer) class QuarterlyReport(BaseModel): company: str stock_ticker: str date: str reported_revenue: str dividend: str prompt_template = """[INST]{prompt} Based on this excerpt, extract the correct value for "{key}". Keep it succinct. It should have a type of `{type}`.[/INST] {key}: """ output = structured_model.generate(passage, extraction_prompt_template=prompt_template, schema=QuarterlyReport, batch_size=6) print(json.dumps(output, indent=2))

未来计划

还有许多功能可以改进Super JSON Mode,以下是一些想法:

  • 定性输出分析:我们进行了性能基准测试,但希望提出更严格的方法来评估Super JSON Mode的定性输出。
  • 结构化采样:理想情况下,我们应屏蔽LLM的对数几率以支持类型限制,类似于JSONFormer。
  • 依赖图支持:处理思考回应这种需要依赖关系的键。应能传递一个依赖关系图并以特定顺序完成提示。
  • 本地模型支持:Super JSON Mode在本地环境,尤其是在批量大小为1的情况下表现更佳。
  • TRT-LLM支持:尽管vLLM不错且易于使用,我们理想上希望与更高性能的框架集成。

引用

如果您在工作中发现此库有用,我们将非常感谢您引用此仓库:

@misc{ShenoyDerhacobian2024,
  author = {Shenoy, Varun and Derhacobian, Alex},
  title = {Super JSON Mode: A Framework for Accelerated Structured Output Generation},
  year = {2024},
  publisher = {GitHub},
  journal = {GitHub repository},
  howpublished = {\url{https://github.com/varunshenoy/super-json-mode}}
}

该项目为CS 229: Systems for Machine Learning的一部分,由指导教师和助教的指导下完成。

编辑推荐精选

蛙蛙写作

蛙蛙写作

AI小说写作助手,一站式润色、改写、扩写

蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。

AI辅助写作AI工具蛙蛙写作AI写作工具学术助手办公助手营销助手AI助手
Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

热门AI助手AI对话AI工具聊天机器人
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

下拉加载更多