支持在Jina AI Cloud上一键部署LangChain应用,轻松创建REST/Websocket API,开发对话型Slack机器人,或将应用打包为FastAPI的开源框架
langchain-serve是一款开源框架,支持在Jina AI Cloud上一键部署LangChain应用,轻松创建REST/Websocket API,开发对话型Slack机器人,或将应用打包为FastAPI。这一平台支持在云端或本地环境部署,保证数据隐私同时享受无服务器架构的便利。
langchain-serve 是一个帮助开发者将 LangChain 应用快速部署到 Jina AI Cloud 的工具。这个项目专注于利用 Jina 和 FastAPI,把大型语言模型(LLM)驱动的应用程序便捷地推向生产环境。通过 langchain-serve,用户只需简单几步就可以享受云的可扩展性和无服务器架构的好处,同时也可以选择在自己的基础设施上部署以保证数据的私密性。
langchain-serve 可以将多种应用作为服务进行包装,并轻松部署到 Jina AI Cloud。以下是其中几个主要服务:
@serving
装饰器定义 API,轻松创建 REST/WebSocket 接口。@slackbot
装饰器构建、部署和分发 Slack 机器人。要使用 langchain-serve,首先需要通过 pip 安装它:
pip install langchain-serve
@serving
装饰器构建 REST API用户可以参考 langchain-serve 提供的逐步指南,创建一个 REST API,并使用 @serving
装饰器进行部署。
该工具提供 @slackbot
装饰器,让开发者可以快速构建和分发 Slack 机器人,使用 LLM 提供强大功能,而无需担心基础设施的问题。
lc-serve
未找到的命令问题。JCloud 通过自定义 YAML 配置文件提供灵活的应用配置选项,允许用户根据需要调整实例类型、最小 副本数和磁盘大小等参数来控制使用成本。
如需要在有自己基础设施上部署 LLM 应用或有其他问题,欢迎加入我们的Discord 社区,我们期待帮助您解决各种需求。