Verba

Verba

开源RAG应用程序实现智能文档检索与问答

Verba是一款开源的检索增强生成(RAG)应用程序,提供端到端的简便界面。支持多种模型和数据类型,可在本地或云端部署。该应用程序允许用户探索数据集、提取见解,并通过自然语言与文档交互。Verba整合了先进的RAG技术和Weaviate的上下文感知数据库,可根据具体需求选择RAG框架、数据类型、分块和检索技术以及LLM提供商。这为文档问答和知识库分析提供了灵活而强大的解决方案。

VerbaRAG开源项目人工智能数据查询Github

Verba

金毛寻回犬

Weaviate PyPi下载量 Docker支持 演示

欢迎来到Verba:金毛寻回犬,这是一个开源应用程序,旨在提供端到端、简化且用户友好的检索增强生成(RAG)界面。只需几个简单步骤,即可轻松探索您的数据集并提取见解,可以在本地使用HuggingFace和Ollama,也可以通过OpenAI、Cohere和Google等LLM提供商。

pip install goldenverba

Verba演示

Verba是什么?

Verba是一个完全可定制的个人助手,用于查询和与您的数据交互,可以在本地或通过云部署。解决文档相关问题,交叉引用多个数据点或从现有知识库获取见解。Verba将最先进的RAG技术与Weaviate的上下文感知数据库相结合。根据您的个人用例,在不同的RAG框架、数据类型、分块和检索技术以及LLM提供商之间进行选择。

开源精神

Weaviate很自豪地为社区提供这个开源项目。虽然我们努力及时解决问题,但请理解它可能无法像生产软件那样严格维护。我们欢迎并鼓励社区贡献,以帮助它平稳运行。非常感谢您在快速修复开放问题方面的支持。

在此观看我们最新的Verba视频:

视频链接

功能列表

🤖 模型支持已实现描述
Ollama(例如Llama3)由Ollama驱动的本地嵌入和生成模型
HuggingFace(例如MiniLMEmbedder)由HuggingFace驱动的本地嵌入模型
Cohere(例如Command R+)Cohere提供的嵌入和生成模型
Google(例如Gemini)Google提供的嵌入和生成模型
OpenAI(例如GPT4)OpenAI提供的嵌入和生成模型
🤖 嵌入支持已实现描述
Ollama由Ollama驱动的本地嵌入模型
MiniLMEmbedder由HuggingFace驱动
AllMPNetEmbedder由HuggingFace驱动
MixedbreadEmbedder由HuggingFace驱动
CohereCohere提供的嵌入模型
GoogleGoogle提供的嵌入模型
OpenAIOpenAI提供的嵌入模型
📁 数据支持已实现描述
PDF导入将PDF导入Verba
GitHub和GitLab从Github和GitLab导入文件
CSV/XLSX导入将表格数据导入Verba
.DOCX导入.docx文件
多模态计划中 ⏱️将多模态数据导入Verba
UnstructuredIO通过Unstructured导入数据
✨ RAG功能已实现描述
混合搜索语义搜索与关键词搜索相结合
语义缓存根据语义含义保存和检索结果
自动完成建议Verba提供自动完成建议
过滤计划中 ⏱️在执行RAG之前应用过滤器(如文档、文档类型等)
高级查询计划中 ⏱️基于LLM评估的任务委派
重新排序计划中 ⏱️根据上下文重新排序结果以改善结果
RAG评估计划中 ⏱️RAG管道评估界面
可自定义元数据计划中 ⏱️对元数据的自由控制
🆒 酷炫附加功能已实现描述
Docker支持Verba可通过Docker部署
可自定义前端Verba的前端可通过前端完全自定义
🤝 RAG库已实现描述
Haystack计划中 ⏱️实现Haystack RAG管道
LlamaIndex计划中 ⏱️实现LlamaIndex RAG管道
LangChain计划中 ⏱️实现LangChain RAG管道

缺少什么吗?欢迎创建一个新的问题或讨论,分享您的想法!

Verba展示


Verba入门

您有三种部署Verba的选择:

  • 通过pip安装
pip install goldenverba
  • 从源代码构建
git clone https://github.com/weaviate/Verba

pip install -e .
  • 使用Docker部署

先决条件:如果不使用Docker,请确保您的系统上安装了Python >=3.10.0

如果您不熟悉Python和虚拟环境,请阅读Python教程指南

API密钥

在启动Verba之前,您需要通过.env文件配置对各种组件的访问权限,具体取决于您选择的技术,如OpenAI、Cohere和HuggingFace。在您要启动Verba的同一目录中创建这个.env文件。您可以在goldenverba目录中找到一个.env.example文件。

请确保只设置您打算使用的环境变量,缺失或不正确的环境变量值可能导致错误。

以下是您可能需要的API密钥和变量的完整列表:

环境变量描述
WEAVIATE_URL_VERBA您的托管Weaviate集群URL连接到您的WCS集群
WEAVIATE_API_KEY_VERBA您的托管Weaviate集群API凭证连接到您的WCS集群
OPENAI_API_KEY您的API密钥获取OpenAI模型访问权限
OPENAI_BASE_URLOpenAI实例的URL模型
COHERE_API_KEY您的API密钥获取Cohere模型访问权限
OLLAMA_URL您的Ollama实例URL(例如 http://localhost:11434)获取Ollama模型访问权限
OLLAMA_MODEL模型名称(例如 llama)获取特定Ollama模型访问权限
OLLAMA_EMBED_MODEL模型名称(例如 mxbai-embed-large)获取特定Ollama嵌入模型访问权限(如未指定则默认为OLLAMA_MODEL)
UNSTRUCTURED_API_KEY您的API密钥获取Unstructured数据摄取访问权限
UNSTRUCTURED_API_URLUnstructured实例URL获取Unstructured数据摄取访问权限
GITHUB_TOKEN您的GitHub令牌获取通过GitHub进行数据摄取的访问权限
GITLAB_TOKEN您的GitLab令牌获取通过GitLab进行数据摄取的访问权限
GOOGLE_APPLICATION_CREDENTIALSGoogle凭证获取Google模型访问权限
GOOGLE_CLOUD_PROJECTGoogle Cloud项目获取Google模型访问权限
GOOGLE_API_KEY您的API密钥获取Google模型访问权限
VERBA_PRODUCTIONTrue在生产模式下运行Verba

Weaviate

Verba提供了根据您需求连接到Weaviate实例的灵活性。默认情况下,如果未检测到WEAVIATE_URL_VERBAWEAVIATE_API_KEY_VERBA环境变量,Verba会选择Weaviate嵌入式。这种本地部署是启动Weaviate数据库进行原型设计和测试的最简单方法。

但是,您还有其他选择:

🌩️ Weaviate云服务(WCS)

如果您更喜欢基于云的解决方案,Weaviate云服务(WCS)提供了可扩展的托管环境。按照Weaviate集群设置指南了解如何设置云集群并获取API密钥。

🐳 Docker部署 另一个强大的本地替代方案是使用Docker部署Weaviate。有关更多详细信息,请参阅Weaviate Docker指南

Ollama

Verba支持Ollama模型。在您的设备上下载并安装Ollama(https://ollama.com/download)。确保使用`ollama run <model>`安装您首选的LLM。

已经测试过llama3llama3:70bmistral。通常情况下,更大的模型性能更好,但需要更多计算能力。

在继续之前,请确保为嵌入器和生成器选择了正确的配置。

verba-embedder

确保Ollama服务器在后台运行,并且不要使用不同的ollama模型摄取文档,因为它们的向量维度可能会有所不同,从而导致错误

您可以通过运行以下命令进行验证

ollama run llama3

verba-ollama-llama3

Google

如果您想使用Google功能,请确保安装Google Verba包。

pip install goldenverba[google] pip install `.[google]`

如果您使用Docker,请相应修改Dockerfile

Google嵌入

对于Google嵌入,Verba使用Google Cloud内的Vertex AI Studio。您可以在这里找到获取密钥的说明。如果您已安装gcloud CLI,可以运行以下命令:gcloud auth print-access-token目前,此访问令牌必须每小时更新一次。

您还需要将GOOGLE_CLOUD_PROJECT环境变量设置为项目名称。

Google Gemini

要使用Google Gemini,您需要一个服务账号密钥,它是一个JSON文件。要获取此密钥,请转到Google Cloud控制台中的"项目设置",然后转到"服务账号"。创建一个新的服务账号,然后创建一个新的密钥。下载此密钥并将其放置在Verba的根目录中。将其命名为gemini_secrets.json以自动将其从git中排除。将环境变量GOOGLE_APPLICATION_CREDENTIALS设置为此文件的位置,例如gemini_secrets.json

您还需要将GOOGLE_CLOUD_PROJECT环境变量设置为项目名称。

Unstructured

Verba支持通过Unstructured IO导入文档(例如纯文本、.pdf、.csv等)。要使用它们,您需要UNSTRUCTURED_API_KEYUNSTRUCTURED_API_URL环境变量。您可以从Unstructured获取它们

UNSTRUCTURED_API_URL默认设置为https://api.unstructured.io/general/v0/general

OpenAI

Verba支持OpenAI模型,如Ada、GPT3和GPT4。要使用它们,您需要指定OPENAI_API_KEY环境变量。您可以从OpenAI获取它

您还可以添加OPENAI_BASE_URL以使用代理,如LiteLLM(https://github.com/BerriAI/litellm)

OPENAI_BASE_URL=YOUR-OPENAI_BASE_URL

Azure OpenAI

要使用Azure OpenAI,您需要设置

  • API类型:
OPENAI_API_TYPE="azure"
  • 密钥和端点:
OPENAI_API_KEY=<YOUR_KEY>
OPENAI_BASE_URL=http://XXX.openai.azure.com
  • Azure OpenAI资源名称,如果您的端点是XXX.openai.azure.com,则为XXX
AZURE_OPENAI_RESOURCE_NAME=<YOUR_AZURE_RESOURCE_NAME>
  • 您需要为嵌入和查询设置模型。
AZURE_OPENAI_EMBEDDING_MODEL="text-embedding-ada-002"
OPENAI_MODEL="gpt-4"
  • 最后,由于Azure使用每分钟配额,您可能需要在每个块上传之间添加等待时间。例如,如果您每分钟的限制是24万个令牌,如果您的块最多400个令牌,那么每次查询之间等待100毫秒应该没问题。如果从weaviate收到429错误,则增加此值。
WAIT_TIME_BETWEEN_INGESTION_QUERIES_MS="100"

HuggingFace

如果您想使用HuggingFace功能,请确保安装正确的Verba包。它将安装使用本地嵌入模型所需的包。 请注意,在启动时,Verba将自动下载并安装所有嵌入模型,如果您只想使用特定模型,请从goldenverba/components/managers.py文件中删除不需要的模型。

pip install goldenverba[huggingface] pip install `.[huggingface]`

如果您使用Docker,请相应修改Dockerfile

如何使用pip部署

Python >=3.10.0

  1. 初始化新的Python环境
python3 -m virtualenv venv
  1. 安装Verba
pip install goldenverba
  1. 启动Verba
verba start

您可以通过标志指定--port和--host

  1. 访问Verba
访问 localhost:8000
  1. 创建.env文件并添加环境变量

如何从源代码构建

  1. 克隆Verba仓库
git clone https://github.com/weaviate/Verba.git
  1. 初始化新的Python环境
python3 -m virtualenv venv
  1. 安装Verba
pip install -e .
  1. 启动Verba
verba start

您可以通过标志指定--port和--host

  1. 访问Verba
访问 localhost:8000
  1. 创建.env文件并添加环境变量

如何使用Docker安装Verba

Docker是一套使用操作系统级虚拟化来交付软件包(称为容器)的平台即服务产品。要开始使用Docker部署Verba,请按照以下步骤操作。如果您需要更详细的Docker使用说明,请查看Docker课程

  1. 克隆Verba仓库 确保您的系统上已安装Git。然后,打开终端或命令提示符并运行以下命令来克隆Verba仓库:
git clone https://github.com/weaviate/Verba.git
  1. 设置必要的环境变量 确保在.env文件中设置所需的环境变量。您可以在API密钥部分中阅读更多关于如何设置它们的信息
  2. 调整 docker-compose 文件 你可以使用 docker-compose.ymlverba 服务下添加所需的环境变量,也可以调整 Weaviate Docker 设置以启用身份验证或更改数据库实例的其他设置。你可以在我们的 docker-compose 文档 中阅读更多关于 Weaviate 配置的信息。

请确保只添加你真正需要的环境变量。如果你的 Weaviate 集群未启用身份验证,请确保不要包含 WEAVIATE_API_KEY_VERBA 环境变量。

  1. 使用 Docker 部署 安装 Docker 并克隆 Verba 仓库后,在终端或命令提示符中导航到包含 Docker Compose 文件的目录。运行以下命令以分离模式启动 Verba 应用程序,这样它可以在后台运行:
docker compose up -d
docker compose --env-file .env up -d

这个命令将下载必要的 Docker 镜像,创建容器,并启动 Verba。 请记住,要使用这种方法,必须在你的系统上安装 Docker。有关安装说明和更多关于 Docker 的详细信息,请访问官方 Docker 文档。

  1. 访问 Verba
  • 你可以在 localhost:8080 访问本地 Weaviate 实例

  • 你可以在 localhost:8000 访问 Verba 前端

如果你希望 Docker 实例安装特定版本的 Verba,可以编辑 Dockerfile 并更改安装行。

RUN pip install -e '.'

Verba 使用指南

概览页面

一旦你能够访问 Verba,你可以使用"概览页面"来验证是否所有环境和库都已正确设置和安装。你可以使用管理控制台查看存储在 Weaviate 集合中的所有数据,并重置 Verba 的某些部分(例如文档、缓存、配置等)。

Verba 演示

导入你的数据

配置好 Verba 后,你就可以导入数据并开始探索了。使用"添加文档"页面来摄取你的数据。你可以选择支持不同数据类型、分块技术和嵌入模型的读取器。

Verba 演示

查询你的数据

导入数据后,你可以使用"聊天"页面提出任何相关问题。你将收到与你的问题在语义上相关的相关文本块,以及由你选择的模型生成的答案。你可以在"RAG"页面下配置 RAG 流程。

Verba 演示

开源贡献

我们始终欢迎你的贡献!如果你发现任何问题或错误,请随时贡献想法、反馈或创建问题和错误报告!在贡献之前,请阅读贡献指南。如果你需要任何帮助,请访问我们的 Weaviate 社区论坛

项目架构

你可以在其技术文档前端文档中了解更多关于 Verba 的架构和实现。在进行任何贡献之前,建议先看一下这些文档。

JSON 文件

在 Verba 中,你可以导入具有特定格式的 JSON,这种格式允许你添加原始源链接、文本块、元数据等。

目前,一个文档需要在一个 .json 文件中(这将在未来改变)

文档结构

{ "text": "<内容>", // 将被分块的内容 "type": "<类型>", // 将用于过滤文档 "name": "<文档名称>", // 包含在发送给 LLM 的上下文中 "path": "<本地文件路径>", // 目前未实现,可以为空 "link": "<原始源链接>", // 原始源的链接 "timestamp": "<YYYY-MM-DD HH:MM:SS>", // 目前未使用,可以为空 "reader": "<读取器>", // 目前未使用,可以为空 "meta": {}, // 目前未使用 "chunks": [] // 你可以在这里添加文本块,在摄取过程中跳过分块部分 }

文本块结构

{ "text": "<内容>", // 文本块内容 "doc_name": "<文档名称>", // 文档的名称 "doc_type": "<文档类型>", // 文档的类型 "doc_uuid": "<文档 UUID>", // 文档的 UUID "chunk_id": "<文本块 ID>", // 文本块的顺序,从 0 到 n(n = 总文本块数) "tokens": "<令牌数>", // 文本块中的令牌数,未使用,可以为空 "vector": "<向量>", // 文本块的向量,未使用,可以为空 "score": "<检索分数>" // 文本块的分数,将在运行时由检索器添加,可以为空 }

已知问题

  • Weaviate Embedded 目前在 Windows 上还不能工作
    • 将在未来版本中修复,在此之前请使用 Docker 或 WCS 部署

常见问题

  • Verba 是多语言的吗?

    • 这取决于你选择的嵌入和生成模型是否支持多语言数据。
  • 我可以在 Verba Docker 中使用我的 Ollama 服务器吗?

    • 是的,可以!确保 URL 设置为:OLLAMA_URL=http://host.docker.internal:11434
    • 如果你在 Linux 上运行,你可能需要获取 Ollama 服务器的 IP 网关:OLLAMA_URL="http://YOUR-IP-OF-OLLAMA:11434"
  • 如何清除 Weaviate Embedded 存储?

    • 你可以在这里找到存储的数据:~/.local/share/weaviate
  • 如何指定端口?

    • 你可以使用端口和主机标志 verba start --port 9000 --host 0.0.0.0

编辑推荐精选

蛙蛙写作

蛙蛙写作

AI小说写作助手,一站式润色、改写、扩写

蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。

AI辅助写作AI工具蛙蛙写作AI写作工具学术助手办公助手营销助手AI助手
Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

热门AI助手AI对话AI工具聊天机器人
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

下拉加载更多