runpod-worker-comfy

runpod-worker-comfy

将ComfyUI作为无服务器API部署在RunPod平台

runpod-worker-comfy是一个将ComfyUI部署为无服务器API的开源项目。它能在RunPod平台上运行任意ComfyUI工作流,支持base64编码输入图像,可选将生成图像上传至AWS S3。项目提供三种Docker镜像,允许自定义模型和节点,基于Ubuntu和NVIDIA CUDA构建。通过RunPod API,用户可方便地与部署的端点交互,实现图像生成等功能。

ComfyUIRunPodDockerAPIAI绘图Github开源项目

runpod-worker-comfy

RunPod上作为无服务器API的ComfyUI

<p align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/49066705-807c-42a9-b706-fa053abbb5d9.jpg" title="舒适椅子上的工人" /> </p>

阅读我们的文章:https://blib.la/blog/comfyui-on-runpod

Discord

→ 也请查看Captain: AI平台


<!-- toc --> <!-- tocstop -->

快速开始

功能

  • 运行任何ComfyUI工作流来生成图像
  • 提供base64编码字符串形式的输入图像
  • 生成的图像可以:
  • 有三种不同的Docker镜像可供选择:
    • timpietruskyblibla/runpod-worker-comfy:3.0.0-base:不包含任何内容,只是一个干净的ComfyUI
    • timpietruskyblibla/runpod-worker-comfy:3.0.0-sdxl:包含Stable Diffusion XL的检查点和VAE
    • timpietruskyblibla/runpod-worker-comfy:3.0.0-sd3:包含Stable Diffusion 3的检查点
  • 使用自己的模型
  • 基于Ubuntu + NVIDIA CUDA

配置

环境变量描述默认值
REFRESH_WORKER当您希望在每个作业完成后停止工作程序以获得干净状态时,请参阅官方文档false
COMFY_POLLING_INTERVAL_MS轮询尝试之间的等待时间(毫秒)。250
COMFY_POLLING_MAX_RETRIES最大轮询尝试次数。随着工作流运行时间的增加,应该增加此值。500
SERVE_API_LOCALLY为开发和测试启用本地API服务器。有关更多详细信息,请参阅本地测试禁用

上传图片到AWS S3

只有在您想将生成的图片上传到AWS S3时才需要这样做。如果您不配置此项,您的图像将作为base64编码字符串导出。

  • 在您选择的区域的AWS S3中创建一个存储桶(BUCKET_ENDPOINT_URL
  • 创建一个具有AWS S3访问权限的IAM
  • 为该IAM创建一个访问密钥(BUCKET_ACCESS_KEY_IDBUCKET_SECRET_ACCESS_KEY
  • 为您的RunPod工作程序配置以下环境变量:
环境变量描述示例
BUCKET_ENDPOINT_URLS3存储桶的端点URL。https://<bucket>.s3.<region>.amazonaws.com
BUCKET_ACCESS_KEY_ID用于访问S3存储桶的AWS访问密钥ID。AKIAIOSFODNN7EXAMPLE
BUCKET_SECRET_ACCESS_KEY用于访问S3存储桶的AWS秘密访问密钥。wJalrXUtnFEMI/K7MDENG/bPxRfiCYEXAMPLEKEY

在RunPod上使用Docker镜像

  • 通过点击New Template创建一个新模板
  • 在对话框中配置:
    • 模板名称:runpod-worker-comfy(可以是任何您想要的名称)
    • 模板类型:serverless(将模板类型更改为"serverless")
    • 容器镜像:<dockerhub用户名>/<仓库名称>:标签,在这种情况下:timpietruskyblibla/runpod-worker-comfy:3.0.0-sd3(或-base用于干净镜像,或-sdxl用于Stable Diffusion XL)
    • 容器注册凭证:您可以保留所有内容不变,因为此仓库是公开的
    • 容器磁盘:20 GB
    • (可选)环境变量:配置S3
  • 点击Save Template
  • 导航到Serverless > Endpoints并点击New Endpoint
  • 在对话框中配置:
    • 端点名称:comfy
    • 选择模板:runpod-worker-comfy(或您给模板起的任何名称)
    • 活动工作程序:0(根据您的需求而定)
    • 最大工作程序:3(根据您的需求而定)
    • 空闲超时:5(您可以保留默认值)
    • 快速启动:启用(不会增加成本,但可以更快地启动我们的工作程序,这是好的)
    • (可选)高级:如果您使用网络卷,请在Select Network Volume下选择它。否则保留默认设置。
    • 选择一个有可用性的GPU
    • 每个工作程序的GPU:1
  • 点击deploy
  • 您的端点将被创建,您可以点击它查看仪表板

API规范

以下描述了在向API发送请求时存在的字段。我们只描述通过input发送的字段,因为这些字段是工作程序本身所需的。有关完整的字段列表,请查看官方文档

JSON请求体

{ "input": { "workflow": {}, "images": [ { "name": "example_image_name.png", "image": "base64_encoded_string" } ] } }

字段

字段路径类型必需描述
input对象包含请求数据的顶级对象。
input.workflow对象包含ComfyUI工作流配置。
input.images数组图像数组。每个图像将被添加到ComfyUI的"input"文件夹中,然后可以在工作流中使用其name来引用

"input.images"

一个图像数组,其中每个图像应该有不同的名称。 🚨 RunPod端点的请求体大小限制为:/run接口10 MB,/runsync接口20 MB。请确保您的输入图像不要过大,否则会被RunPod阻止。详见官方文档

字段名类型是否必需描述
name字符串图像的名称。请在工作流中使用相同的名称引用图像
image字符串图像的base64编码字符串

与RunPod API交互

  1. 生成API密钥:

    • 用户设置中,点击API Keys,然后点击API Key按钮。
    • 将生成的密钥保存在安全的地方,因为离开页面后将无法再次查看。
  2. 使用API密钥:

    • 使用cURL或其他工具,通过API密钥和端点ID访问API:
      • <api_key>替换为您的密钥。
  3. 使用您的端点:

    • <endpoint_id>替换为端点ID。(点击端点可以找到ID;它显示在端点名称下方,也是底部显示的URL的一部分。)

如何找到端点ID

健康状态

curl -H "Authorization: Bearer <api_key>" https://api.runpod.ai/v2/<endpoint_id>/health

生成图像

您可以使用/run异步创建新任务,或使用/runsync同步创建。此处示例使用同步任务,等待响应返回。

API期望此格式的JSON,其中workflow从ComfyUI导出的JSON格式工作流images是可选的。

请参考test_input.json查看API输入应该是什么样子。

使用cURL的请求示例

curl -X POST -H "Authorization: Bearer <api_key>" -H "Content-Type: application/json" -d '{"input":{"workflow":{"3":{"inputs":{"seed":1337,"steps":20,"cfg":8,"sampler_name":"euler","scheduler":"normal","denoise":1,"model":["4",0],"positive":["6",0],"negative":["7",0],"latent_image":["5",0]},"class_type":"KSampler"},"4":{"inputs":{"ckpt_name":"sd_xl_base_1.0.safetensors"},"class_type":"CheckpointLoaderSimple"},"5":{"inputs":{"width":512,"height":512,"batch_size":1},"class_type":"EmptyLatentImage"},"6":{"inputs":{"text":"beautiful scenery nature glass bottle landscape, purple galaxy bottle,","clip":["4",1]},"class_type":"CLIPTextEncode"},"7":{"inputs":{"text":"text, watermark","clip":["4",1]},"class_type":"CLIPTextEncode"},"8":{"inputs":{"samples":["3",0],"vae":["4",2]},"class_type":"VAEDecode"},"9":{"inputs":{"filename_prefix":"ComfyUI","images":["8",0]},"class_type":"SaveImage"}}}}' https://api.runpod.ai/v2/<endpoint_id>/runsync

AWS S3存储桶配置的响应示例

{ "delayTime": 2188, "executionTime": 2297, "id": "sync-c0cd1eb2-068f-4ecf-a99a-55770fc77391-e1", "output": { "message": "https://bucket.s3.region.amazonaws.com/10-23/sync-c0cd1eb2-068f-4ecf-a99a-55770fc77391-e1/c67ad621.png", "status": "success" }, "status": "COMPLETED" }

base64编码图像的响应示例

{ "delayTime": 2188, "executionTime": 2297, "id": "sync-c0cd1eb2-068f-4ecf-a99a-55770fc77391-e1", "output": { "message": "base64encodedimage", "status": "success" }, "status": "COMPLETED" }

如何从ComfyUI获取工作流?

  • 在浏览器中打开ComfyUI
  • 打开设置(菜单右上角的齿轮图标)
  • 在弹出的对话框中配置:
    • 启用开发模式选项:打开
    • 关闭设置
  • 在菜单中,点击保存(API格式)按钮,将下载一个名为workflow_api.json的文件

现在您可以把这个文件的内容放入与API交互时的workflow中。

使用自定义模型和节点

网络卷

使用网络卷可以存储和访问自定义模型:

  1. 创建网络卷:

  2. 填充卷:

    • 创建临时GPU实例:
      • 导航到管理 > 存储,点击卷下的部署,部署任意GPU或CPU实例。
      • 导航到管理 > Pods。在新pod下,点击连接打开shell(通过Jupyter笔记本或SSH)。
    • 用模型填充卷:
      cd /workspace for i in checkpoints clip clip_vision configs controlnet embeddings loras upscale_models vae; do mkdir -p models/$i; done wget -O models/checkpoints/sd_xl_turbo_1.0_fp16.safetensors https://huggingface.co/stabilityai/sdxl-turbo/resolve/main/sd_xl_turbo_1.0_fp16.safetensors
  3. 删除临时GPU实例:

  4. 配置端点:

    • 在端点配置中使用网络卷:
      • 创建新端点或更新现有端点。
      • 在端点配置的高级 > 选择网络卷下,选择您的网络卷。

注意:当配置并附加网络卷时,ComfyUI可自动访问网络卷中的文件夹。

自定义Docker镜像

如果您更喜欢直接在Docker镜像中包含模型,请按以下步骤操作:

  1. Fork仓库:

    • 将此仓库fork到您自己的GitHub账户。
  2. 在Dockerfile中添加模型:

    • 编辑Dockerfile以包含您的模型:
      RUN wget -O models/checkpoints/sd_xl_base_1.0.safetensors https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors
    • 您也可以添加自定义节点:
      RUN git clone https://github.com/<username>/<custom-node-repo>.git custom_nodes/<custom-node-repo>
  3. 构建Docker镜像:

    • 在本地构建base镜像:
      docker build -t <your_dockerhub_username>/runpod-worker-comfy:dev-base --target base --platform linux/amd64 .
    • 在本地构建sdxl镜像:
      docker build --build-arg MODEL_TYPE=sdxl -t <your_dockerhub_username>/runpod-worker-comfy:dev-sdxl --platform linux/amd64 .
    • 在本地构建sd3镜像:
      docker build --build-arg MODEL_TYPE=sd3 --build-arg HUGGINGFACE_ACCESS_TOKEN=<your-huggingface-token> -t <your_dockerhub_username>/runpod-worker-comfy:dev-sd3 --platform linux/amd64 .

[!注意]
确保指定--platform linux/amd64以避免在RunPod上出错,参见问题#13

本地测试

两种测试都将使用test_input.json中的数据,请在那里做适当修改以进行正确测试。

设置

  1. 确保您的Python版本 >= 3.10
  2. 创建虚拟环境:
    python -m venv venv
  3. 激活虚拟环境:
    • Windows:
      .\venv\Scripts\activate
    • Mac / Linux:
      source ./venv/bin/activate
  4. 安装依赖:
    pip install -r requirements.txt

Windows设置

  1. 按照本指南安装WSL2和Linux发行版(如Ubuntu)。您可以跳过"安装和使用GUI包"部分。

  2. 安装Ubuntu后,打开终端并登录:

    wsl -d Ubuntu
  3. 更新软件包:

    sudo apt update
  4. 在Ubuntu中安装Docker:

    • 遵循Docker官方安装指南
    • 安装docker-compose:
      sudo apt-get install docker-compose
    • 在Ubuntu中安装NVIDIA工具包: 按照此指南创建nvidia运行时。
  5. 在WSL2的Ubuntu上启用GPU加速: 遵循此指南

    • 如果您已在Windows上安装了GPU驱动程序,可以跳过"为WSL安装适当的Windows vGPU驱动程序"步骤。
  6. 将您的用户添加到docker组以无需sudo即可使用Docker:

    sudo usermod -aG docker $USER

完成这些步骤后,在终端中切换到Ubuntu并通过WSL在Windows计算机上本地运行Docker镜像:

wsl -d Ubuntu

测试RunPod处理程序

  • 运行所有测试:python -m unittest discover
  • 如果要运行特定测试:python -m unittest tests.test_rp_handler.TestRunpodWorkerComfy.test_bucket_endpoint_not_configured

您还可以启动处理程序本身以运行本地服务器:python src/rp_handler.py 要使其正常工作,您还需要启动"ComfyUI",否则处理程序将无法工作。

本地API

为了增强本地开发,您可以启动一个模拟RunPod工作环境的API服务器。这个功能对于在本地调试和测试您的集成特别有用。

运行Docker容器时,将SERVE_API_LOCALLY环境变量设置为true以激活本地API服务器。这已经是docker-compose.yml中的默认值,因此您可以通过执行以下命令来运行:

docker-compose up

访问本地Worker API

  • 本地API服务器运行后,可在以下地址访问:localhost:8000
  • 在浏览器中打开此地址时,您还可以查看API文档并直接与API交互

访问本地ComfyUI

  • 本地API服务器运行时,您可以在以下地址访问ComfyUI:localhost:8188

使用GitHub Actions自动部署到Docker Hub

该仓库包含两个工作流,使用GitHub Actions将镜像发布到Docker Hub:

  • dev.yml:在每次推送到main分支时创建镜像并将其推送到Docker Hub,标记为dev
  • release.yml:创建镜像并将其推送到Docker Hub,标记为latest和发布标签。仅在GitHub上创建发布时触发

如果要使用此功能,您应该向仓库添加以下密钥

配置变量描述示例值
DOCKERHUB_USERNAME您的Docker Hub用户名your-username
DOCKERHUB_TOKEN用于认证的Docker Hub令牌your-token
HUGGINGFACE_ACCESS_TOKEN您的Hugging Face READ访问令牌your-access-token

还要确保向仓库添加以下变量

变量名描述示例值
DOCKERHUB_REPODocker Hub上推送镜像的仓库timpietruskyblibla
DOCKERHUB_IMG推送到Docker Hub的镜像名称runpod-worker-comfy

致谢

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

热门AI工具AI办公办公工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

模型训练热门AI工具内容创作智能问答AI开发讯飞星火大模型多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

热门AI工具生产力协作转型TraeAI IDE
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

AI助手热门AI工具AI创作AI辅助写作讯飞绘文内容运营个性化文章多平台分发
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多