WebCPM

WebCPM

交互式网络搜索的中文长答案生成系统

WebCPM项目通过交互式网络搜索技术解决中文长篇问答任务。其开发的搜索界面收集用户行为数据,用于微调大规模预训练语言模型。该模型能够模拟人类搜索过程,生成基于事实的长答案。项目开源了全套资源,包括搜索界面、数据集、代码和模型参数,为自然语言处理领域研究提供支持。

WebCPM自然语言处理问答系统网页搜索中文长文本问答Github开源项目
<div align="center"> <h1>WebCPM</h1> </div>

✨ 这是ACL 2023论文基于交互式网络搜索的中文长文本问答的实现

论文

英文版


快速链接

概述

平台

在这项工作中,我们提出了WebCPM,一个使用中文预训练模型进行交互式网络搜索的项目。我们开发了一个网络搜索界面,可以收集人类的网络搜索行为。然后我们微调了参数量高达100亿的PLM模型,以模仿人类的网络搜索行为并基于收集的事实生成答案。我们开源了网络搜索界面、数据集、实现代码和模型参数。

环境要求

要运行我们的代码,请使用以下命令安装所有依赖包:

pip install -r requirements.txt

注意:不同版本的包(如pytorch)可能会导致与论文中不同的结果。但是,无论使用哪个版本的包,趋势应该仍然保持一致。

准备工作

准备数据

首先从Google Drive下载数据,并将文件interactive_datapipeline_data放到./data目录下,或者运行以下命令:

下载的文件包含以下内容:

interactive_data/data.json是论文实验中使用的数据集(总共5500个实例)。 interactive_data/data_zhihu.json是与本文一起收集的额外数据集(约900个实例),问题来源于知乎,你可以用它来进行数据增强。

请使用以下代码将上述数据分割为训练集、开发集和测试集(设置--add_zhihu将添加data_zhihu.json)。

cd data/interactive_data python split.py --add_zhihu

除了交互式网络搜索数据外,我们还提供了训练基于管道的网络搜索所需的数据集:pipeline_data(总共11万个实例)。所有数据都是通过提示text-davinci-003(同时使用了Bing搜索引擎)创建,然后由人工标注员手动筛选。(注意这部分未包含在论文中,你不需要将其分割为训练/开发/测试集。)

准备模型

WebCPM基于CPM-bee,参数量高达100亿,是社区中最大的中文预训练语言模型之一。我们使用了CPM-bee的早期版本,称为cpm_10b_webcpm_exp.pt。CPM-bee的最新版本托管在New-CPM-bee。你可能需要替换新版本的cpm-live包。注意模型检查点尚未针对任何下游任务进行微调。要获取cpm_10b_webcpm_exp.pt,你可以从清华云下载模型参数,或运行以下脚本:

cd models
bash download_model_initial_model.sh

上述代码会在models目录下载100亿参数(未微调)的模型,对于微调后的管道模型,请参考download_model_pipeline_finetuned.sh,或从清华云手动下载。

训练WebCPM

平台

我们提供了两个版本的WebCPM:(1)交互式网络搜索(ACL论文中提出的方法)和(2)基于管道的网络搜索,更易于部署(这种方法未在论文中报告)。两个版本使用不同的脚本生成训练数据,但使用相同的代码进行模型训练。

基于管道的网络搜索简介

工作流程包括四个阶段:(1)首先,根据原始问题生成可能的搜索查询;(2)然后对每个搜索查询,调用Bing搜索并访问前K个网页;(3)对每个网页,提取重要信息;(4)基于所有记录的信息,生成连贯详细的答案。所有这些任务都以多任务方式进行训练,请参考run_web_browsing/run_pipeline.py。有关交互式网络搜索的详细信息,请参阅我们的原始论文。

数据预处理

在开始之前,运行以下代码:

export PYTHONPATH=/**your-base-path**/webcpm

训练数据生成如下(我们区分了交互式网络搜索和基于管道的方法)。以下代码将在相应文件夹中生成train_datadev_datatest_data,这些数据将在训练期间加载。

交互式网络搜索的训练数据生成

首先,使用以下代码构建合成模型的数据:

cd dataset_interactive python make_data_synthesis_model.py --data_path ../../data/interactive_data --augment_qa_data --augment_data_path ../../data/pipeline_data

我们解释一些参数如下:

  • data_path:源数据路径。
  • augment_qa_data:是否使用text-davinci自动生成的问答数据来增强训练数据。(要复现我们论文中的结果,请不要添加此参数)
  • augment_data_path:增强训练数据的数据路径。

搜索模型的训练数据生成如下:

python make_data_search_model.py --add_query --add_action --add_abstract --abstract_all_tokens

我们解释一些参数如下:

  • data_path:源数据路径。
  • add_query:如果为True,将添加查询生成数据。
  • add_abstract:如果为True,将添加生成支持事实提取数据。
  • abstract_all_tokens:如果为True,支持事实提取模块将生成所有标记,而不仅仅是前几个/最后几个标记。
  • add_action:如果为True,将添加动作预测数据。
  • add_synthesis:如果为True,将加载合成模型的本地数据。注意你必须首先运行python make_data_synthesis_model.py以获取合成数据,然后才能在此处添加此参数

如果你想以多任务方式训练所有子任务,只需添加所有上述参数;否则,只添加一个参数(例如,--add_query)进行单任务测试。

基于管道的网络搜索的训练数据生成

请运行以下代码:

cd dataset_pipeline python make_data.py

训练

要训练WebCPM,运行以下代码:

cd training export PYTHONPATH=/**your-base-path**/webcpm export CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 GPUS_PER_NODE=$(echo $CUDA_VISIBLE_DEVICES | tr ',' '\n' | wc -l | xargs) echo "Number of visible devices: $GPUS_PER_NODE, should be the same as visible devices" set -ex MASTER_ADDR=localhost MASTER_PORT=3239 NNODES=1 NODE_RANK=0 OPTS="" OPTS+=" --model-config config/cpm-bee-10b.json" OPTS+=" --dataset ../data/dataset_interactive/train_data" OPTS+=" --dataseteval ../data/dataset_interactive/dev_data" OPTS+=" --epoch 5" OPTS+=" --batch-size 8" OPTS+=" --train-iters 100" OPTS+=" --save-name webcpm_finetuned" OPTS+=" --max-length 2560" OPTS+=" --save ../models/" OPTS+=" --lr 0.0001" OPTS+=" --inspect-iters 100" OPTS+=" --warmup-iters 1" OPTS+=" --save-epochs 1" OPTS+=" --lr-decay-style noam" OPTS+=" --weight-decay 0.01" OPTS+=" --clip-grad 1.0" OPTS+=" --loss-scale 32768" OPTS+=" --start-step 0" OPTS+=" --load ../models/cpm_10b_webcpm_exp.pt" CMD="torchrun --nnodes=${NNODES} --nproc_per_node=${GPUS_PER_NODE} --rdzv_id=1 --rdzv_backend=c10d --rdzv_endpoint=${MASTER_ADDR}:${MASTER_PORT} finetune_cpm_bee.py ${OPTS}" echo ${CMD} $CMD

我们解释一些参数如下:

  • datasetdataseteval:处理后文件的路径。对于交互式网络搜索,是dataset_interactive,而对于基于流水线的方法,是dataset_pipeline。
  • batch-size:单个GPU的批次大小,实际批次大小将是GPU数量 x 每个GPU的批次大小。
  • max-length:数据的最大序列长度(不是模型的),超过此长度的训练实例将被丢弃。
  • save-namesave:保存微调模型的路径和保存的模型检查点名称。
  • epoch:训练轮数。
  • load:预训练模型检查点的路径(本例中为cpmb)。

无论你训练哪个模块(或多任务设置),都可以使用上述代码。我们在8个80G A100上训练,你可以根据你的GPU设备调整批次大小,性能对超参数不敏感。

单任务评估

要评估不同的子任务,你可以先运行以下代码,获取微调模型在测试数据上的预测结果:

cd inference python inference.py --test_file ../training/dataset_interactive/test.txt --output_file output/test_predictions.json --ckpt_path **你的微调检查点.pt

我们解释一些参数如下:

  • test_file:测试文件的路径,应该在数据预处理期间生成。
  • output_file:你想写入预测结果的路径。
  • ckpt_path:你的微调模型的路径。

获得测试文件的预测结果后,你可以运行以下代码进行单任务评估:

python evaluate.py --input_file output/test_predictions.txt --evaluate_action

我们解释一些参数如下:

  • input_file:你写入测试文件预测结果的路径。
  • evaluate_action:是否要评估动作预测任务(F1)。
  • evaluate_query:是否要评估搜索查询生成任务(Rouge-L)。
  • evaluate_abstract:是否要评估支持事实提取任务(Rouge-L)。
  • abstract_all_tokens:你训练模型进行支持事实提取的模式,如果生成所有标记,添加此参数(Rouge-L)。
  • evaluate_answer:是否要评估答案综合任务(Rouge-L)。
  • beam_size:将束搜索大小设为1会显著加快推理速度,但会稍微影响性能。

对新问题运行WebCPM

这是整个流水线评估的实现。你可以使用以下代码为新问题生成答案。注意,这需要你先从这里获取Bing搜索API密钥,然后运行以下代码:

cd run_web_browsing export PYTHONPATH=/**基础路径**/webcpm export BING_SEARCH_KEY="**你的Bing搜索API密钥**"

交互式网络搜索

python run_interactive.py --data_path predictions/test_interactive.json --ckpt_path **你的检查点**

基于流水线的网络搜索

python run_pipeline.py --data_path predictions/test.json --ckpt_path **你的检查点**

我们解释一些参数如下:

  • data_path:你写入预测结果的路径。
  • ckpt_path:使用基于流水线方法训练的检查点路径。

数据标注平台构建

平台

我们开源了我们的网络搜索界面,你可以用它进行数据标注。请参考标注。目前代码有些混乱,我们很快会上传一个更整洁的版本。

问题或疑问?

如果你有任何与代码或论文相关的问题,请联系Yujia(qyj20@mails.tsinghua.edu.cn)或提出issue。

工具学习资源

随着基础模型强大能力的发展,我们热切期待它们在操作各种工具方面的应用。WebCPM是一个典型的研究尝试。更多资源,请参考以下内容:

引用

如果你发现我们的WebCPM有用,请使用以下引用:

@inproceedings{qin2023webcpm, title = "WebCPM: Interactive Web Search for Chinese Long-form Question Answering", author={Yujia Qin and Zihan Cai and Dian Jin and Lan Yan and Shihao Liang and Kunlun Zhu and Yankai Lin and Xu Han and Ning Ding and Huadong Wang and Ruobing Xie and Fanchao Qi and Zhiyuan Liu and Maosong Sun and Jie Zhou}, booktitle = "Proceedings of ACL 2023", year = "2023", publisher = "Association for Computational Linguistics", url = "https://arxiv.org/abs/2305.06849", }

编辑推荐精选

蛙蛙写作

蛙蛙写作

AI小说写作助手,一站式润色、改写、扩写

蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。

AI辅助写作AI工具蛙蛙写作AI写作工具学术助手办公助手营销助手AI助手
Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

热门AI助手AI对话AI工具聊天机器人
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

下拉加载更多