✨ 这是ACL 2023论文基于交互式网络搜索的中文长文本问答的实现
在这项工作中,我们提出了WebCPM,一个使用中文预训练模型进行交互式网络搜索的项目。我们开发了一个网络搜索界面,可以收集人类的网络搜索行为。然后我们微调了参数量高达100亿的PLM模型,以模仿人类的网络搜索行为并基于收集的事实生成答案。我们开源了网络搜索界面、数据集、实现代码和模型参数。
要运行我们的代码,请使用以下命令安装所有依赖包:
pip install -r requirements.txt
注意:不同版本的包(如pytorch
)可能会导致与论文中不同的结果。但是,无论使用哪个版本的包,趋势应该仍然保持一致。
首先从Google Drive下载数据,并将文件interactive_data
和pipeline_data
放到./data
目录下,或者运行以下命令:
下载的文件包含以下内容:
interactive_data/data.json
是论文实验中使用的数据集(总共5500个实例)。
interactive_data/data_zhihu.json
是与本文一起收集的额外数据集(约900个实例),问题来源于知乎,你可以用它来进行数据增强。
请使用以下代码将上述数据分割为训练集、开发集和测试集(设置--add_zhihu将添加data_zhihu.json)。
cd data/interactive_data python split.py --add_zhihu
除了交互式网络搜索数据外,我们还提供了训练基于管道的网络搜索所需的数据集:pipeline_data
(总共11万个实例)。所有数据都是通过提示text-davinci-003(同时使用了Bing搜索引擎)创建,然后由人工标注员手动筛选。(注意这部分未包含在论文中,你不需要将其分割为训练/开发/测试集。)
WebCPM基于CPM-bee,参数量高达100亿,是社区中最大的中文预训练语言模型之一。我们使用了CPM-bee的早期版本,称为cpm_10b_webcpm_exp.pt。CPM-bee的最新版本托管在New-CPM-bee。你可能需要替换新版本的cpm-live包。注意模型检查点尚未针对任何下游任务进行微调。要获取cpm_10b_webcpm_exp.pt,你可以从清华云下载模型参数,或运行以下脚本:
cd models
bash download_model_initial_model.sh
上述代码会在models
目录下载100亿参数(未微调)的模型,对于微调后的管道模型,请参考download_model_pipeline_finetuned.sh
,或从清华云手动下载。
我们提供了两个版本的WebCPM:(1)交互式网络搜索(ACL论文中提出的方法)和(2)基于管道的网络搜索,更易于部署(这种方法未在论文中报告)。两个版本使用不同的脚本生成训练数据,但使用相同的代码进行模型训练。
工作流程包括四个阶段:(1)首先,根据原始问题生成可能的搜索查询;(2)然后对每个搜索查询,调用Bing搜索并访问前K个网页;(3)对每个网页,提取重要信息;(4)基于所有记录的信息,生成连贯详细的答案。所有这些任务都以多任务方式进行训练,请参考run_web_browsing/run_pipeline.py
。有关交互式网络搜索的详细信息,请参阅我们的原始论文。
在开始之前,运行以下代码:
export PYTHONPATH=/**your-base-path**/webcpm
训练数据生成如下(我们区分了交互式网络搜索和基于管道的方法)。以下代码将在相应文件夹中生成train_data
、dev_data
和test_data
,这些数据将在训练期间加载。
首先,使用以下代码构建合成模型的数据:
cd dataset_interactive python make_data_synthesis_model.py --data_path ../../data/interactive_data --augment_qa_data --augment_data_path ../../data/pipeline_data
我们解释一些参数如下:
data_path
:源数据路径。augment_qa_data
:是否使用text-davinci自动生成的问答数据来增强训练数据。(要复现我们论文中的结果,请不要添加此参数)augment_data_path
:增强训练数据的数据路径。搜索模型的训练数据生成如下:
python make_data_search_model.py --add_query --add_action --add_abstract --abstract_all_tokens
我们解释一些参数如下:
data_path
:源数据路径。add_query
:如果为True,将添加查询生成数据。add_abstract
:如果为True,将添加生成支持事实提取数据。abstract_all_tokens
:如果为True,支持事实提取模块将生成所有标记,而不仅仅是前几个/最后几个标记。add_action
:如果为True,将添加动作预测数据。add_synthesis
:如果为True,将加载合成模型的本地数据。注意你必须首先运行python make_data_synthesis_model.py以获取合成数据,然后才能在此处添加此参数。如果你想以多任务方式训练所有子任务,只需添加所有上述参数;否则,只添加一个参数(例如,--add_query
)进行单任务测试。
请运行以下代码:
cd dataset_pipeline python make_data.py
要训练WebCPM,运行以下代码:
cd training export PYTHONPATH=/**your-base-path**/webcpm export CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 GPUS_PER_NODE=$(echo $CUDA_VISIBLE_DEVICES | tr ',' '\n' | wc -l | xargs) echo "Number of visible devices: $GPUS_PER_NODE, should be the same as visible devices" set -ex MASTER_ADDR=localhost MASTER_PORT=3239 NNODES=1 NODE_RANK=0 OPTS="" OPTS+=" --model-config config/cpm-bee-10b.json" OPTS+=" --dataset ../data/dataset_interactive/train_data" OPTS+=" --dataseteval ../data/dataset_interactive/dev_data" OPTS+=" --epoch 5" OPTS+=" --batch-size 8" OPTS+=" --train-iters 100" OPTS+=" --save-name webcpm_finetuned" OPTS+=" --max-length 2560" OPTS+=" --save ../models/" OPTS+=" --lr 0.0001" OPTS+=" --inspect-iters 100" OPTS+=" --warmup-iters 1" OPTS+=" --save-epochs 1" OPTS+=" --lr-decay-style noam" OPTS+=" --weight-decay 0.01" OPTS+=" --clip-grad 1.0" OPTS+=" --loss-scale 32768" OPTS+=" --start-step 0" OPTS+=" --load ../models/cpm_10b_webcpm_exp.pt" CMD="torchrun --nnodes=${NNODES} --nproc_per_node=${GPUS_PER_NODE} --rdzv_id=1 --rdzv_backend=c10d --rdzv_endpoint=${MASTER_ADDR}:${MASTER_PORT} finetune_cpm_bee.py ${OPTS}" echo ${CMD} $CMD
我们解释一些参数如下:
dataset
和dataseteval
:处理后文件的路径。对于交互式网络搜索,是dataset_interactive,而对于基于流水线的方法,是dataset_pipeline。batch-size
:单个GPU的批次大小,实际批次大小将是GPU数量 x 每个GPU的批次大小。max-length
:数据的最大序列长度(不是模型的),超过此长度的训练实例将被丢弃。save-name
和save
:保存微调模型的路径和保存的模型检查点名称。epoch
:训练轮数。load
:预训练模型检查点的路径(本例中为cpmb)。无论你训练哪个模块(或多任务设置),都可以使用上述代码。我们在8个80G A100上训练,你可以根据你的GPU设备调整批次大小,性能对超参数不敏感。
要评估不同的子任务,你可以先运行以下代码,获取微调模型在测试数据上的预测结果:
cd inference python inference.py --test_file ../training/dataset_interactive/test.txt --output_file output/test_predictions.json --ckpt_path **你的微调检查点.pt
我们解释一些参数如下:
test_file
:测试文件的路径,应该在数据预处理期间生成。output_file
:你想写入预测结果的路径。ckpt_path
:你的微调模型的路径。获得测试文件的预测结果后,你可以运行以下代码进行单任务评估:
python evaluate.py --input_file output/test_predictions.txt --evaluate_action
我们解释一些参数如下:
input_file
:你写入测试文件预测结果的路径。evaluate_action
:是否要评估动作预测任务(F1)。evaluate_query
:是否要评估搜索查询生成任务(Rouge-L)。evaluate_abstract
:是否要评估支持事实提取任务(Rouge-L)。abstract_all_tokens
:你训练模型进行支持事实提取的模式,如果生成所有标记,添加此参数(Rouge-L)。evaluate_answer
:是否要评估答案综合任务(Rouge-L)。beam_size
:将束搜索大小设为1会显著加快推理速度,但会稍微影响性能。这是整个流水线评估的实现。你可以使用以下代码为新问题生成答案。注意,这需要你先从这里获取Bing搜索API密钥,然后运行以下代码:
cd run_web_browsing export PYTHONPATH=/**基础路径**/webcpm export BING_SEARCH_KEY="**你的Bing搜索API密钥**"
python run_interactive.py --data_path predictions/test_interactive.json --ckpt_path **你的检查点**
python run_pipeline.py --data_path predictions/test.json --ckpt_path **你的检查点**
我们解释一些参数如下:
data_path
:你写入预测结果的路径。ckpt_path
:使用基于流水线方法训练的检查点路径。我们开源了我们的网络搜索界面,你可以用它进行数据标注。请参考标注。目前代码有些混乱,我们很快会上传一个更整洁的版本。
如果你有任何与代码或论文相关的问题,请联系Yujia(qyj20@mails.tsinghua.edu.cn
)或提出issue。
随着基础模型强大能力的发展,我们热切期待它们在操作各种工具方面的应用。WebCPM是一个典型的研究尝试。更多资源,请参考以下内容:
如果你发现我们的WebCPM有用,请使用以下引用:
@inproceedings{qin2023webcpm, title = "WebCPM: Interactive Web Search for Chinese Long-form Question Answering", author={Yujia Qin and Zihan Cai and Dian Jin and Lan Yan and Shihao Liang and Kunlun Zhu and Yankai Lin and Xu Han and Ning Ding and Huadong Wang and Ruobing Xie and Fanchao Qi and Zhiyuan Liu and Maosong Sun and Jie Zhou}, booktitle = "Proceedings of ACL 2023", year = "2023", publisher = "Association for Computational Linguistics", url = "https://arxiv.org/abs/2305.06849", }
AI小说写作助手,一站式润色、改写、扩写
蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号