欢迎使用Redis向量库 – 为使用Redis的AI应用程序设计的终极Python客户端。
redisvl是您的首选工具,用于:
使用pip
将redisvl
安装到您的Python (>=3.8)环境中:
pip install redisvl
有关更详细的说明,请访问安装指南。
从多个Redis部署选项中选择:
docker run -d --name redis-stack -p 6379:6379 -p 8001:8001 redis/redis-stack:latest
使用免费的Redis Insight GUI增强您的体验和可观察性。
为您的用例设 计一个模式,使用内置的Redis和可索引字段(例如文本、标签、数字、地理位置和向量)来建模您的数据集。从YAML文件加载模式:
index: name: user-idx prefix: user storage_type: json fields: - name: user type: tag - name: credit_score type: tag - name: embedding type: vector attrs: algorithm: flat dims: 4 distance_metric: cosine datatype: float32
from redisvl.schema import IndexSchema schema = IndexSchema.from_yaml("schemas/schema.yaml")
或直接从Python字典加载:
schema = IndexSchema.from_dict({ "index": { "name": "user-idx", "prefix": "user", "storage_type": "json" }, "fields": [ {"name": "user", "type": "tag"}, {"name": "credit_score", "type": "tag"}, { "name": "embedding", "type": "vector", "attrs": { "algorithm": "flat", "datatype": "float32", "dims": 4, "distance_metric": "cosine" } } ] })
创建一个SearchIndex类,使用输入模式和客户端连接,以便在Redis中对您的索引执行管理和搜索操作:
from redis import Redis from redisvl.index import SearchIndex # 建立Redis连接并定义索引 client = Redis.from_url("redis://localhost:6379") index = SearchIndex(schema, client)
index.create()
> 异步兼容的搜索索引类也可用:[AsyncSearchIndex](https://www.redisvl.com/api/searchindex.html#redisvl.index.AsyncSearchIndex)。
3. [加载](https://www.redisvl.com/user_guide/getting_started_01.html#load-data-to-searchindex)
和[获取](https://www.redisvl.com/user_guide/getting_started_01.html#fetch-an-object-from-redis)数据到/从你的Redis实例:
```python
data = {"user": "john", "credit_score": "high", "embedding": [0.23, 0.49, -0.18, 0.95]}
# 加载字典列表,指定"id"字段
index.load([data], id_field="user")
# 通过"id"获取
john = index.fetch("john")
定义查询并在你的索引上执行高级搜索,包括向量、元数据过滤器和更多的组合。
from redisvl.query import VectorQuery query = VectorQuery( vector=[0.16, -0.34, 0.98, 0.23], vector_field_name="embedding", num_results=3 ) # 对embedding字段执行向量搜索查询 results = index.query(query)
在查询中加入复杂的元数据过滤器:
from redisvl.query.filter import Tag # 定义标签匹配过滤器 tag_filter = Tag("user") == "john" # 更新查询定义 query.set_filter(tag_filter) # 执行查询 results = index.query(query)
阅读更多关于构建高级Redis查询的信息。
集成流行的嵌入提供商,大大简化为你的索引和查询向量化非结构化数据的过程:
from redisvl.utils.vectorize import CohereTextVectorizer # 在你的环境中设置COHERE_API_KEY co = CohereTextVectorizer() embedding = co.embed( text="法国的首都是哪个城市?", input_type="search_query" ) embeddings = co.embed_many( texts=["我的文档块内容", "我的其他文档块内容"], input_type="search_document" )
了解更多关于在你的嵌入工作流中使用[向量化器](https://github.com/redis/redis-vl-python/blob/main/(https://www.redisvl.com/user_guide/vectorizers_04.html)的信息。
集成流行的重排序提供商以提高Redis初始搜索结果的相关性
我们很高兴宣布支持RedisVL扩展。这些模块实现了接口,展示了使用LLM内存和代理的最佳实践和设计模式。我们从用户(就是你)以及前沿客户那里学到了最好的经验,并将其打包。
有关于其他扩展的想法吗?开一个PR或联系我们:applied.ai@redis.com。我们随时欢迎反馈。
通过利用先前生成的知识,使用SemanticCache
增加应用程序吞吐量并降低在生产中使用LLM模型的成本。
from redisvl.extensions.llmcache import SemanticCache # 使用TTL和语义距离阈值初始化缓存 llmcache = SemanticCache( name="llmcache", ttl=360, redis_url="redis://localhost:6379", distance_threshold=0.1 ) # 在语义缓存中存储用户查询和LLM响应 llmcache.store( prompt="法国的首都是哪个城市?", response="巴黎" ) # 使用略有不同的提示快速检查缓存(在调用LLM之前) response = llmcache.check(prompt="法国的首都城市是什么?") print(response[0]["response"])
>>> 巴黎
了解更多关于LLM的[语义缓存](https://github.com/redis/redis-vl-python/blob/main/(https://www.redisvl.com/user_guide/llmcache_03.html)的信息。
通过提供用户聊天历史作为上下文,改善LLM响应的个性化和准确性。使用SemanticSessionManager
根据最近性或相关性管理会话数据的访问,由向量搜索提供支持。
from redisvl.extensions.session_manager import SemanticSessionManager session = SemanticSessionManager( name="my-session", redis_url="redis://localhost:6379", distance_threshold=0.7 ) session.add_messages([ {"role": "user", "content": "你好,你好吗?"}, {"role": "assistant", "content": "我很好,谢谢。"}, {"role": "user", "content": "今天天气怎么样?"}, {"role": "assistant", "content": "我不知道"} ])
获取最近的聊天历史:
session.get_recent(top_k=1)
>>> [{"role": "assistant", "content": "我不知道"}]
获取相关的聊天历史(由向量搜索支持):
session.get_relevant("天气", top_k=1)
>>> [{"role": "user", "content": "今天天气怎么样?"}]
了解更多关于[LLM会话管理](https://github.com/redis/redis-vl-python/blob/main/(https://www.redisvl.com/user_guide/session_manager_07.html)。
构建直接在Redis中运行的快速决策模型,将用户查询路由到最接近的"路由"或"主题"。
from redisvl.extensions.router import Route, SemanticRouter routes = [ Route( name="问候", references=["你好", "嗨"], metadata={"type": "问候"}, distance_threshold=0.3, ), Route( name="告别", references=["再见", "拜拜"], metadata={"type": "告别"}, distance_threshold=0.3, ), ] # 从路由构建语义路由器 router = SemanticRouter( name="主题路由器", routes=routes, redis_url="redis://localhost:6379", ) router("嗨,早上好")
>>> RouteMatch(name='问候', distance=0.273891836405)
了解更多关于语义路由。
通过专门设计的CLI界面创建、销毁和管理Redis索引配置:rvl
。
$ rvl -h 用法:rvl <命令> [<参数>] 命令: index 索引操作(创建、删除等) version 获取RedisVL的版本 stats 获取索引的统计信息
阅读更多关于使用CLI的信息。
在GenAI时代,向量数据库和LLM正在改变信息检索系统。随着LangChain和LlamaIndex等新兴和流行框架的出现,创新正在快速发展。然而,许多组织面临着快速且大规模交付AI解决方案的挑战。
这就是Redis的用武之地 - 作为NoSQL世界的基石,以其多功能的数据结构和处理引擎而闻名。Redis在实时工作负载如缓存、会话管理和搜索方面表现出色。它也是RAG的强大向量数据库、LLM缓存和对话式AI的聊天会话内存存储。
Redis向量库弥合了AI原生开发者生态系统和Redis强大功能之间的差距。通过轻量级、优雅和直观的接口,RedisVL使利用Redis的力量变得容易。基于Redis Python客户端构建,redisvl
将Redis的特性转化为完全符合当今AI/ML工程师和数据科学家需求的语法。
如需更多帮助,请查看以下资源:
请通过贡献PR、为错误或新功能想法开启GitHub问题、改进文档或增加测试覆盖率来帮助我们。阅读更多关于如何贡献的信息!
本项目由Redis, Inc以善意努力的基础提供支持。要报告错误、请求功能或获取帮助,请提交问题。
AI小说写作助手,一站式润色、改写、扩写
蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号