Qwen-Agent

Qwen-Agent

基于千问大模型的应用开发框架 支持工具调用和长文本处理

Qwen-Agent是基于通义千问大语言模型的应用开发框架。该框架提供指令跟随、工具使用、规划和记忆等功能,包含浏览器助手和代码解释器等示例应用。它支持自定义工具开发,提供原子级和高级组件,能处理超长文档问答,并在多个基准测试中表现出色。开发者可以利用Qwen-Agent创建智能助手,实现复杂的人工智能应用。

Qwen-AgentLLM应用代理框架工具使用自定义助手Github开源项目

中文 | English

<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/8a50a3c3-8c06-4b8d-ae29-ec2d4c11f3a1.png" width="400"/> <p> <br>

Qwen-Agent 是一个基于 Qwen 的指令跟随、工具使用、规划和记忆能力的 LLM 应用开发框架。它还附带了示例应用,如浏览器助手、代码解释器和自定义助手。

入门指南

安装

  • 从 PyPI 安装稳定版本:
pip install -U qwen-agent[rag,code_interpreter] # 如果不使用 RAG 和代码解释器,可以通过 `pip install -U qwen-agent` 安装最小依赖。
  • 或者,您可以从源代码安装最新的开发版本:
git clone https://github.com/QwenLM/Qwen-Agent.git cd Qwen-Agent pip install -e ./[rag,code_interpreter] # 如果不使用 RAG 和代码解释器,可以通过 `pip install -e ./` 安装最小依赖。

如果需要内置 GUI 支持,请通过以下方式安装可选依赖:

pip install -U qwen-agent[gui,rag,code_interpreter] # 或从源代码安装:`pip install -e ./[gui,rag,code_interpreter]`

准备:模型服务

您可以使用阿里云的 DashScope 提供的模型服务,或者部署并使用自己的开源 Qwen 模型服务。

  • 如果您选择使用 DashScope 提供的模型服务,请确保将环境变量 DASHSCOPE_API_KEY 设置为您唯一的 DashScope API 密钥。

  • 或者,如果您更喜欢部署和使用自己的模型服务,请按照 Qwen2 的 README 中提供的说明部署兼容 OpenAI 的 API 服务。具体来说,请参考 vLLM 部分了解高吞吐量 GPU 部署,或 Ollama 部分了解本地 CPU(+GPU)部署。

开发您自己的 Agent

Qwen-Agent 提供了原子组件,如 LLM(继承自 class BaseChatModel,并附带函数调用)和工具(继承自 class BaseTool),以及高级组件如 Agent(派生自 class Agent)。

以下示例说明了创建一个能够读取 PDF 文件并使用工具的 agent 的过程,以及如何添加自定义工具:

import pprint import urllib.parse import json5 from qwen_agent.agents import Assistant from qwen_agent.tools.base import BaseTool, register_tool # 步骤 1(可选):添加一个名为 `my_image_gen` 的自定义工具。 @register_tool('my_image_gen') class MyImageGen(BaseTool): # `description` 告诉 agent 这个工具的功能。 description = 'AI 绘画(图像生成)服务,输入文本描述,返回基于文本信息绘制的图像 URL。' # `parameters` 告诉 agent 这个工具有哪些输入参数。 parameters = [{ 'name': 'prompt', 'type': 'string', 'description': '所需图像内容的详细描述,使用英语', 'required': True }] def call(self, params: str, **kwargs) -> str: # `params` 是 LLM agent 生成的参数。 prompt = json5.loads(params)['prompt'] prompt = urllib.parse.quote(prompt) return json5.dumps( {'image_url': f'https://image.pollinations.ai/prompt/{prompt}'}, ensure_ascii=False) # 步骤 2:配置您正在使用的 LLM。 llm_cfg = { # 使用 DashScope 提供的模型服务: 'model': 'qwen-max', 'model_server': 'dashscope', # 'api_key': 'YOUR_DASHSCOPE_API_KEY', # 如果这里没有设置 'api_key',将使用 'DASHSCOPE_API_KEY' 环境变量。 # 使用兼容 OpenAI API 的模型服务,如 vLLM 或 Ollama: # 'model': 'Qwen2-7B-Chat', # 'model_server': 'http://localhost:8000/v1', # base_url,也称为 api_base # 'api_key': 'EMPTY', # (可选)LLM 生成的超参数: 'generate_cfg': { 'top_p': 0.8 } } # 步骤 3:创建一个 agent。这里我们以 `Assistant` agent 为例,它能够使用工具和读取文件。 system_instruction = '''你是一个有用的助手。 收到用户的请求后,你应该: - 首先绘制一张图像并获取图像 URL, - 然后运行代码 `request.get(image_url)` 下载图像, - 最后从给定文档中选择一个图像操作来处理图像。 请使用 `plt.show()` 显示图像。''' tools = ['my_image_gen', 'code_interpreter'] # `code_interpreter` 是一个用于执行代码的内置工具。 files = ['./examples/resource/doc.pdf'] # 给机器人一个 PDF 文件阅读。 bot = Assistant(llm=llm_cfg, system_message=system_instruction, function_list=tools, files=files) # 步骤 4:将 agent 作为聊天机器人运行。 messages = [] # 这里存储聊天历史。 while True: # 例如,输入查询"画一只狗并将其旋转 90 度"。 query = input('用户查询: ') # 将用户查询添加到聊天历史中。 messages.append({'role': 'user', 'content': query}) response = [] for response in bot.run(messages=messages): # 流式输出。 print('机器人回复:') pprint.pprint(response, indent=2) # 将机器人回复添加到聊天历史中。 messages.extend(response)

除了使用内置的 agent 实现(如 class Assistant)外,您还可以通过继承 class Agent 来开发自己的 agent 实现。 请参考 examples 目录以获取更多使用示例。

常见问题

你们有函数调用(又称工具调用)吗?

有的。LLM 类提供了函数调用功能。此外,一些 Agent 类也是基于函数调用能力构建的,例如 FnCallAgent 和 ReActChat。

如何对包含 100 万个 token 的超长文档进行问答?

我们发布了一个快速 RAG 解决方案,以及一个耗时但有竞争力的 agent,用于对超长文档进行问答。它们在两个具有挑战性的基准测试中表现优于原生长上下文模型,同时效率更高,并在涉及 100 万 token 上下文的单一"大海捞针"压力测试中表现完美。有关技术细节,请参阅博客

<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/607109bb-8778-49a8-a92a-268fe182f270.png" width="400"/> <p>

应用:BrowserQwen

BrowserQwen 是基于 Qwen-Agent 构建的浏览器助手。详情请参阅其文档

免责声明

代码解释器并未进行沙箱隔离,它会在您自己的环境中执行代码。请不要要求 Qwen 执行危险任务,也不要直接将代码解释器用于生产目的。

编辑推荐精选

Keevx

Keevx

AI数字人视频创作平台

Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。

即梦AI

即梦AI

一站式AI创作平台

提供 AI 驱动的图片、视频生成及数字人等功能,助力创意创作

扣子-AI办公

扣子-AI办公

AI办公助手,复杂任务高效处理

AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!

TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
蛙蛙写作

蛙蛙写作

AI小说写作助手,一站式润色、改写、扩写

蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。

AI辅助写作AI工具蛙蛙写作AI写作工具学术助手办公助手营销助手AI助手
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

热门AI助手AI对话AI工具聊天机器人
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

下拉加载更多