
提升大语言模型的多任务代理能力
AgentTuning项目通过多种代理任务的交互数据微调大语言模型,增强其通用代理能力。实验表明,经过AgentTuning的模型在新的代理任务中展现出良好的泛化能力,同时保持了强大的语言处理能力。项目开源的AgentInstruct数据集和AgentLM模型为相关研究提供了重要参考。
AgentTuning是首次尝试使用多个智能体任务的交互轨迹对大语言模型进行指令微调。评估结果表明,AgentTuning在保持强大的通用语言能力的同时,还能够赋予大语言模型智能体能力,并在未见过的智能体任务上表现出良好的泛化能力。我们已开源AgentInstruct数据集和AgentLM模型。
AgentInstruct是一个精心策划的数据集,包含1,866个高质量交互,旨在提升AI智能体在6个不同真实世界任务中的表现。
AgentInstruct数据集可在🤗Huggingface仓库获取。
AgentLM模型是通过在AgentInstruct数据集和来自Llama2-chat系列的ShareGPT数据集上进行混合训练而产生的。
这些模型遵循Llama-2-chat的对话格式,系统提示固定为You are a helpful, respectful and honest assistant.
7B、13B和70B模型可在Huggingface模型中心获取。
| 模型 | Huggingface仓库 |
|---|---|
| AgentLM-7B | 🤗Huggingface仓库 |
| AgentLM-13B | 🤗Huggingface仓库 |
| AgentLM-70B | 🤗Huggingface仓库 |
我们使用Text-Generation-Inference来加速评估过程。
您可以通过以下命令启动AgentLM-70b实例:
cd docker docker compose -f agentlm-70b.yml up
成功执行后,将在30070端口上提供客户端。以下是发起请求的示例:
curl 127.0.0.1:30070/generate \ -X POST \ -H 'Content-Type: application/json' \ -d '{"inputs": "[INST] <<SYS>>\nYou are a helpful, respectful and honest assistant.\n<</SYS>>\n\nHello! [/INST]", "parameters":{"temperature": 1.0}}' # {"generated_text":"Hello! How can I help you today? "}
如果有更多可用的GPU,您可以复制Docker Compose文件中的服务来创建多个推理实例。
以下是我们评估任务的详细信息,包括6个训练内任务和6个训练外任务。
6个训练内任务选自AgentBench。然而,由于AgentBench仍在积极开发中,最新分支的结果可能无法完全复现论文中报告的结果。本项目的评估代码位于./AgentBench.old。
训练外任务从以下框架重新编译而来:
| 任务 | AgentTuning设置 | 原始仓库 |
|---|---|---|
| SciWorld | 📂 eval_heldout/science-world | 💻 allenai/ScienceWorld |
| MiniWoB++ | 📂 eval_heldout/miniwob++ | 💻 Farama-Foundation/miniwob-plusplus |
| HotpotQA | 📂 eval_heldout/hotpotQA | 💻 salesforce/BOLAA |
| ReWOO | 📂 eval_heldout/rewoo | 💻 billxbf/ReWOO |
| WebArena | 📂 eval_heldout/webarena | 💻 web-arena-x/webarena |
| Digital Card Game | 💻 AgentBench.old ( Extend 分割 ) | 💻 THUDM/AgentBench |
MMLU设置:
将14k多选题下载到./data:
cd data wget https://people.eecs.berkeley.edu/~hendrycks/data.tar tar xf data.tar cd ..
通过执行评估脚本来评估Hf模型(组织/名称或检查点路径):
python eval_general/evaluate_mmlu_hf.py -c THUDM/AgentLM-70b
GSM8k设置:
启动TGI工作进程
运行评估
python eval_general/evaluate_gsm8k_tgi.py --port 30070
使用--sample-input-file加载本地数据集,否则将加载GSM8K进行评估。
MT-Bench设置:
在本地安装FastChat
git clone https://github.com/lm-sys/FastChat.git pip install -e FastChat
启动TGI工作进程
运行评估脚本:
python eval_general/eval_mt_bench_tgi.py --host 127.0.0.1 --port 30070 --model-id agentlm-70b
使用GPT-4评估答案
cd FastChat/fastchat/llm_judge OPENAI_API_KEY=<your-api-key> python gen_judgment.py --model-list agentlm-70b --parallel <number-of-cuncurrent-requests>
如果您觉得我们的工作有用,请考虑引用AgentTuning:
@misc{zeng2023agenttuning,
title={AgentTuning: Enabling Generalized Agent Abilities for LLMs},
author={Aohan Zeng and Mingdao Liu and Rui Lu and Bowen Wang and Xiao Liu and Yuxiao Dong and Jie Tang},
year={2023},
eprint={2310.12823},
archivePrefix={arXiv},
primaryClass={cs.CL}
}


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


AI论文写作指导平台
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏 、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新 版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号