cog

cog

专门用于将机器学习模型打包进生产级容器的开源工具

Cog是一款开源工具,专门用于将机器学习模型打包进生产级容器。它简化了自定义Docker环境的配置过程,能自动创建符合最佳实践的Docker镜像。Cog支持多版本CUDA,标准化的Python I/O 定义,队列处理和即将推出的云存储功能,使得从开发到部署的全过程更加高效。用户可选在本地或通过Replicate部署模型。

CogDocker机器学习部署开源Github开源项目

Cog 项目介绍

Cog是一款开源工具,专为将机器学习模型打包成标准化、可用于生产的容器而设计。利用Cog,用户可以轻松地将已打包的模型部署到自己的基础设施,或是使用Replicate来进行部署。

项目亮点

  • 📦 免除Docker文件的困扰:自己编写Dockerfile或许让人困惑,而Cog通过一个简单的配置文件定义环境,并自动生成包含最佳实践的Docker镜像。包括Nvidia基础镜像、依赖项的高效缓存、特定Python版本的安装及合理预设的环境变量等。

  • 🤬️ 杜绝CUDA配置的麻烦:Cog可以识别CUDA/cuDNN/PyTorch/Tensorflow/Python的兼容组合,并自动为用户配置。

  • 用标准Python定义模型的输入和输出:Cog会生成OpenAPI模式,并用Pydantic验证输入和输出。

  • 🎁 自动HTTP预测服务器:借助FastAPI,根据模型的类型动态生成RESTful HTTP API。

  • 🥞 自动队列工作者:对于长时间运行的深度学习模型或批处理,队列是最佳的架构。Cog模型自带此功能。目前支持Redis,未来将支持更多。

  • ☁️ 云存储支持:可直接读取和写入Amazon S3与Google Cloud Storage(即将推出)。

  • 🚀 生产准备就绪:可部署到任何支持Docker镜像的环境,包括用户自己的基础设施或Replicate

工作原理

用户可以通过cog.yaml文件定义模型运行的Docker环境,例如:

build: gpu: true system_packages: - "libgl1-mesa-glx" - "libglib2.0-0" python_version: "3.12" python_packages: - "torch==2.3" predict: "predict.py:Predictor"

使用predict.py文件定义如何在模型上运行预测:

from cog import BasePredictor, Input, Path import torch class Predictor(BasePredictor): def setup(self): """将模型载入内存以高效运行多次预测""" self.model = torch.load("./weights.pth") def predict(self, image: Path = Input(description="输入灰度图像") ) -> Path: """在模型上运行一次预测""" processed_image = preprocess(image) output = self.model(processed_image) return postprocess(output)

通过命令行运行预测:

$ cog predict -i image=@input.jpg --> 正在构建Docker镜像... --> 运行预测... --> 输出保存至output.jpg

或者,构建Docker镜像以供部署:

$ cog build -t my-colorization-model --> 正在构建Docker镜像... --> 构建成功 my-colorization-model:latest $ docker run -d -p 5000:5000 --gpus all my-colorization-model $ curl http://localhost:5000/predictions -X POST \ -H 'Content-Type: application/json' \ -d '{"input": {"image": "https://.../input.jpg"}}'

或者通过serve命令结合构建与运行:

$ cog serve -p 8080 $ curl http://localhost:8080/predictions -X POST \ -H 'Content-Type: application/json' \ -d '{"input": {"image": "https://.../input.jpg"}}'

项目背景

将机器学习模型投入生产对研究人员来说并不容易。虽然Docker能够解决一部分问题,但其复杂性让研究人员望而却步。本项目的创始人Andreas JanssonBen Firshman,正是看到了这一需求,才开发出Cog。他们在Spotify与Docker的工作经历中,分别积累了丰富的模型部署经验。

使用需知

  • 需要macOS、Linux或Windows 11。Cog支持在这些操作系统上运行。
  • 需要Docker。Cog使用Docker来创建模型的容器,因此需要事先安装Docker。如果使用Docker Engine而非Docker Desktop,还需安装Buildx。

用户可以通过Homebrew在macOS上安装Cog:

brew install cog

此外,还可以通过项目提供的安装脚本下载安装最新版本。

升级指南

已安装Homebrew的macOS用户可以通过以下命令升级Cog:

brew upgrade cog

其他用户可以重复使用最初安装的命令来升级Cog至最新版本。

下一步

如需帮助,欢迎加入我们的Discord频道。项目致力于欢迎各种形式的贡献,感谢所有支持和帮助Cog成长的贡献者们。

编辑推荐精选

潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

Keevx

Keevx

AI数字人视频创作平台

Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。

下拉加载更多