ReAlign

ReAlign

重新格式化指令数据以提升大语言模型性能

ReAlign是一种指令数据优化方法,通过重新格式化现有指令数据的响应,使其更符合预设标准和相关证据。该方法减少了人工标注需求,同时提升了大语言模型的对齐能力、数学推理、事实性和可读性。实验显示,仅通过重新格式化响应,LLaMA-2-13B在GSM8K上的数学推理准确率提高了近10个百分点。ReAlign强调人类和大语言模型在对齐过程中的协作,为相关研究提供新思路。

ReAlign对齐指令数据大语言模型提示工程Github开源项目

重新格式化对齐

这是重新格式化对齐的官方仓库。

范润泽李学锋邹浩洋李俊龙何帅陈毅涵胡洁雯刘鹏飞

新闻

  • 2024年2月:我们在Arxiv上发布了预印本论文,ReAlign数据集,以及开发过程中的其他有用资源(任务描述、手写格式、任务分类器、训练数据和用于事实性评估的NQ数据集)。

目录

简介

我们探索了提升现有指令数据质量以更好地与人类价值观对齐的方法,提出了一种简单有效的方法,名为ReAlign重新格式化对齐),它将指令数据的响应重新格式化为更符合预先建立的标准和收集的证据的格式。 这种方法最大限度地减少了人工标注、幻觉和扩展难度,与现有的对齐技术保持正交。 实验表明,ReAlign显著提升了大语言模型的通用对齐能力、数学推理、事实性和可读性。

令人鼓舞的是,仅仅通过重新格式化响应,而不引入任何额外数据或先进的训练技术,LLaMA-2-13B在GSM8K上的数学推理能力就可以从46.77%提高到56.63%的准确率。 此外,仅5%的ReAlign数据就可以使Alpaca数据集测量的通用对齐能力提高67%。 这项工作强调了需要进一步研究大语言模型的科学机制可解释性

ReAlign的基本理念是在对齐过程中重新协调人类和大语言模型的角色,利用它们的互补优势——人类表达他们的偏好,而大语言模型则根据其生成能力(例如,遵循指令的能力)重建指令,而不直接使用提炼的大语言模型知识。 通过这种协作协同,我们期望生成的指令数据不仅在上下文上更加精确,而且更贴近人类偏好。

<div align=center><img src="https://yellow-cdn.veclightyear.com/835a84d5/1bafe84b-6012-4850-b768-a9c9b9990d95.jpg" style="zoom: 25%;" /></div> <center>在GSM8K和MATH训练集上微调的LLaMA-2-13B和Mistral-7B模型在有无ReAlign的情况下在GSM8K测试集上的准确率。(a):在GSM8K上训练和测试。(b):在MATH上训练,在GSM8K上测试(分布外设置)。</center> <div align=center><img src="https://yellow-cdn.veclightyear.com/835a84d5/7e65388c-8ed6-4926-bab0-b20bc3e4bd52.jpg" style="zoom: 25%;" /></div> <center>我们的<strong>ReAlign</strong>概述,包括三个步骤。KILT表示知识密集型语言任务。</center>

ReAlign过程分为三个主要步骤。

第一步是标准定义,人类以自然语言的形式定义他们在各种场景中的偏好(例如,响应的首选格式)。 在本文中,我们精心定义了46种不同场景的标准。

第二步是检索增强,通过纳入额外信息扩大知识密集型任务(如开放域问答和事实验证)的知识库,从而提高响应的事实性和信息量。

最后一步是重新格式化,旨在将响应与预先建立的标准和收集的证据重新对齐,确保输出既有结构又有依据。

<div align=center><img src="https://yellow-cdn.veclightyear.com/835a84d5/cf47faa2-6294-4afe-889d-75255fe9fd89.jpg" style="zoom: 25%;" width="60%" height="auto"/></div> <center><strong>ReAlign</strong>将原始响应与预定义的标准重新对齐,以得到更好的格式。</center> <div align=center><img src="https://yellow-cdn.veclightyear.com/835a84d5/0f4edcd0-6f03-4877-a8bd-bd057bda5931.jpg" style="zoom: 25%;" /></div> <center>原始模型的响应和ReAlign模型的响应示例</center>

快速开始

设置

我们在此项目中使用python 3.10。建议通过conda创建虚拟环境。

然后,我们需要安装requirements.txt中列出的所有库。请注意,你可以根据你的CUDA版本选择合适的torch版本(我们在这个文件中写的是torch>=2.0.1+cu118)。

pip install -r requirements.txt

流程

  • 这里获取你的OpenAI API密钥。这用于重新格式化。
  • 这里获取你的Serper API密钥。这仅用于Google搜索检索。

第1步:任务分类

从huggingface hub下载任务分类器:

模型名称HF检查点大小许可
任务分类器🤗 GAIR/ReAlign-Task-Classifier13BLlama 2

然后,使用以下提示,任务分类器可以识别查询属于哪个任务:

PROMPT_INPUT_FOR_TASK_CLS: str = ''' 你将收到一个用户的查询。此外,你还得到了以下一些预定义的任务: [现有任务开始] 问题生成 故事生成 诗歌生成 电子邮件生成 数据生成 建议给予 推荐 如何生成 规划 指令重写 语言润色 释义 文本纠正 代码纠正 代码简化 信息提取 关键词提取 表格提取 标题生成 文本摘要 笔记摘要 解释代码 解释答案 文本到文本翻译 文本到代码翻译 代码到代码翻译 代码到文本翻译 开放式问答 封闭式问答 填空 事实验证 数学谜题 语言学习问题 自然语言学习导师 考试解题导师 机器学习/人工智能/语言模型导师 通用分类 排序 情感分析 代码语言分类 语言分类 主题分类 价值判断 拒绝 角色扮演 默认 [现有任务结束] 你的目标是选择最能反映这个查询的高层次意图的任务。你应该首先明确给出你的选择。你的选择应该与上面提供的任务名称之一完全匹配,不做任何修改。不要在你的选择中包含任务描述。 你的输出应该只是任务名称。 用户的查询如下: [用户查询开始] {input} [用户查询结束] 任务名称: '''

这里有一个例子:

from vllm import LLM, SamplingParams import torch num_gpus = torch.cuda.device_count() model_name_or_dir = "GAIR/ReAlign-Task-Classifier" # 或存储下载模型的本地目录 llm = LLM(model=model_name_or_dir, tensor_parallel_size=num_gpus) query = "给出三个保持健康的建议。" input_ = PROMPT_INPUT_FOR_TASK_CLS.format(input=query) sampling_params = SamplingParams(temperature=0.0, top_p=1.0, max_tokens=50) outputs = llm.generate(input_, sampling_params) task = output[0].outputs[0].text print(task) # 应该是 `建议给予`。 # 如果分类结果不在任务列表中,将其设置为 `默认`。

第2步:准备你的数据集

将你的数据集转换为以下json格式,与ReAlign数据集相同。

这里有一个例子:

[ { "id": 0, "items": [ { # 问题 "from": "human", "value": "给出三个保持健康的建议。", "category": "建议给予" }, { # 回答 "from": "gpt", "value": "1.保持均衡饮食,确保摄入充足的水果和蔬菜。\n2. 定期锻炼,保持身体活跃和强壮。\n3. 保证充足的睡眠,并保持一致的睡眠时间表。" } ] } ]

第3步:使用Google搜索进行检索

设置你的Serper API密钥:

export SERPER_API_KEY=...

运行以下脚本:

python retrieval.py \ --input_data_path dataset.json \ --output_path dataset_retrieval.json \ --batch_size 10

输出文件:

dataset_retrieval.json添加了原始检索结果。

dataset_retrieval_clean_evidence.json添加了清理后的检索结果。 这用于ReAlign。

第4步:重新格式化

设置你的OpenAI API密钥:

export OPENAI_API_KEY=...

运行以下脚本:

python reformat.py \ --input_data_path dataset_retrieval_clean_evidence.json \ --output_directory reformat_results \ --tokenizer_path meta-llama/Llama-2-7b-chat-hf \ # 或存储下载的分词器的本地目录 --dataset_batch_id 0 \ # 十个文件中的第一个文件(从0到9) --dataset_batch_num 10 \ # 文件总数 --openai_key <OPENAI_API_KEY> \ --top_k 2 \ # 为每个响应输出2个重新格式化的回答 --model gpt-3.5-turbo-1106 \ --temperature 0.3 \ --top_p 1 \ --target_length 4096

请注意,我们正在使用并行处理来加速,这意味着我们将同时运行dataset_batch_num个进程进行重新格式化,每个进程需要手动指定dataset_batch_id

例如:

如果你将dataset_batch_num设置为10,意味着数据集将被分成10个子数据集(10倍加速)。你应该同时运行脚本10次,每次指定dataset_batch_id从0到9。

然后,你可以在output_directory目录中得到dataset_batch_num个文件。

运行以下脚本将这些文件合并成一个最终数据集:

python parallel_data_merge.py \ --input_data_path dataset_retrieval_clean_evidence.json \ # 重新格式化脚本中的<input_data_path> --output_directory reformat_results \ # 重新格式化脚本中的<output_directory> --final_output_path dataset_reformat.json

最后,你可以得到最终重新格式化的数据集。

步骤5:后期过滤

你可以在rewrite_data_selection.py中组合过滤规则或自定义过滤规则。

运行以下脚本对重新格式化的数据集进行过滤:

python rewrite_data_selection.py \ --input_original_data_path dataset_retrieval_clean_evidence.json \ # 重新格式化前的数据集路径 --input_rewrite_data_path dataset_reformat.json \ # 重新格式化后的数据集路径 --output_path realign_dataset.json # 过滤后的最终数据集路径

现在,你可以得到最终的重新对齐数据集realign_dataset.json

ReAlign数据集

我们基于Open-Platypus、Alpaca、No Robots、GSM8K和MATH这五个数据集进行了重新格式化:

ReAlign Open-Platypus:datasets/realign_OpenPlatypus.json

ReAlign Alpaca:datasets/realign_alpaca.json

ReAlign No Robots:datasets/realign_no_robots.json

ReAlign GSM8K:datasets/realign_gsm8k.json

ReAlign MATH:datasets/realign_math.json

这些数据集也可以在🤗Hugging Face上加载:

数据集名称Hugging Face链接大小
ReAlign Open-Platypus🤗 GAIR/ReAlign-Open-Platypus25K
ReAlign Alpaca🤗 GAIR/ReAlign-Alpaca52K
ReAlign No Robots🤗 GAIR/ReAlign-No-Robots10K
ReAlign GSM8K🤗 GAIR/ReAlign-GSM8K7.4K
ReAlign MATH🤗 GAIR/ReAlign-MATH6.5K

其他资源

任务描述和格式

任务描述和预定义格式可以在code/constant.py中找到。

任务分类器的数据

任务分类器的训练数据在datasets/classification/task_classifier_train_dataset.json中。

测试数据在datasets/classification/task_classifier_test_dataset.json中。

格式如下:

{ "instruction": "创建一个关于狗发现魔法传送门的故事。", "category": "story_generation" }

事实性评估

我们从NQ数据集中随机抽样了100个案例进行事实性评估,可以在datasets/nq中找到。

真实答案在datasets/nq/nq_factuality_100.json中。

格式如下:

{ "items": [ { "from": "human", "value": "民主党什么时候改变了它的名字?" }, { "from": "gpt", "value": "19世纪30年代" } ], "id": 0 }

引用

如果本仓库中的资源或论文对你有帮助,请引用该论文。

@article{fan2024reformatted,
      title={Reformatted Alignment}, 
      author={Fan, Run-Ze and Li, Xuefeng and Zou, Haoyang and Li, Junlong and He, Shwai and Chern, Ethan and Hu, Jiewen and Liu, Pengfei},
      year={2024},
      journal={arXiv preprint arXiv:2402.12219},
      url={https://arxiv.org/abs/2402.12219}
}

致谢

我们感谢GAIR成员审阅我们的论文并给予宝贵的反馈。我们感谢OpenChat的作者提供训练代码库和帮助。

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多