MemGPT 是一个基于 GPT 模型的开源项目,旨在增强文本生成的能力。通过融合长期和短期记忆,MemGPT 能够更深入理解语境并生成更加准确和连贯的文本。它提供简洁易用的接口,可帮助用户轻松应用于各种文本生成任务,包括写作、对话模型等。无论您是需要自然语言处理技术支持的专业人士还是普通用户,MemGPT 都能为您提供高效可靠的解决方案。
MemGPT 让构建和部署具备状态管理功能的大型语言模型(LLM)代理变得简单,并支持以下功能:
你还可以使用 MemGPT 将Agent部署为服务。你可以使用 MemGPT 服务器在支持的大型语言模型提供商之上运行multi-user、multi-agent应用程序。

1.安装 MemGPT:
pip install -U pymemgpt
2.若要将 MemGPT 与 OpenAI 一起使用,请设置环境变量 OPENAI_API_KEY 为您的 OpenAI 密钥,然后运行:
memgpt quickstart --backend openai
3.若要使用免费托管的终端节点,你可以运行:
memgpt quickstart --backend memgpt
如需更高级的配置选项或使用不同的大型语言模型后端或本地大型语言模型,请运行 memgpt configure。
你可以通过在命令行界面(CLI)运行 memgpt run 来创建并与 MemGPT 代理交谈。run 命令支持以下可选标志(有关完整标志列表,请参见 CLI 文档):
你可以在 CLI 文档中查看可用的聊天命令列表(例如,/memory, /exit)。
MemGPT 提供了一个开发者门户,使你能够轻松创建、编辑、监控和与你的 MemGPT Agent进行交流。使用开发者门户最简单的方法是通过 Docker 安装 MemGPT(见下面的说明)。

选项 1(推荐):使用 Docker Compose 运行
选项 2:使用 CLI 运行:
服务器运行后,你可以使用 Python 客户端或 REST API 连接到 memgpt.localhost(如果你使用 Docker Compose 运行)或 localhost:8283(如果墨使用 CLI 运行)来创建用户、代理等。该服务需要使用 MemGPT 管理员密码进行认证,可以通过运行 export MEMGPT_SERVER_PASS=password 来设置。
MemGPT 设计为与模型和提供者无关。支持以下大型语言模型(LLM)和嵌入终端:

当使用 MemGPT 与开放大型语言模型(例如从 HuggingFace 下载的模型)时,MemGPT 的性能将高度依赖于大型语言模型的函数调用能力。你可以在 Discord 上的 #model-chat 频道以及这个电子表格中找到已知与 MemGPT 配合使用效果良好的大型语言模型/模型列表。