kaito

kaito

Kubernetes集群AI/ML模型自动化部署与管理工具

Kaito是一款专为Kubernetes集群设计的AI/ML模型自动化管理工具。它支持falcon和phi-3等开源大模型,通过容器镜像管理模型文件,提供预设配置,自动配置GPU节点,并利用Microsoft Container Registry托管模型镜像。Kaito显著简化了在Kubernetes环境中部署和管理大型AI推理模型的过程,为开发者和运维人员提供了高效、便捷的解决方案。

KubernetesAIGPU大型模型自动化Github开源项目

Kubernetes AI 工具链操作器 (Kaito)

GitHub Release Go Report Card GitHub go.mod Go version codecov

通知 最新动态!
最新版本:2024年7月12日。Kaito v0.3.0。
首次发布:2023年11月15日。Kaito v0.1.0。

Kaito 是一个操作器,用于在 Kubernetes 集群中自动化 AI/ML 模型推理或微调工作负载。目标模型是流行的开源大型模型,如 falconphi-3。与大多数基于虚拟机基础设施构建的主流模型部署方法相比,Kaito 具有以下主要差异:

  • 使用容器镜像管理大型模型文件。提供 HTTP 服务器以使用模型库执行推理调用。
  • 提供预设配置,避免根据 GPU 硬件调整工作负载参数。
  • 根据模型要求自动配置 GPU 节点。
  • 如果许可允许,将大型模型镜像托管在公共 Microsoft 容器注册表 (MCR) 中。

使用 Kaito,在 Kubernetes 中部署大型 AI 推理模型的工作流程大大简化。

架构

Kaito 遵循经典的 Kubernetes 自定义资源定义 (CRD) / 控制器设计模式。用户管理一个 workspace 自定义资源,描述 GPU 要求和推理或微调规范。Kaito 控制器将通过协调 workspace 自定义资源来自动化部署。

<div align="left"> <img src="https://yellow-cdn.veclightyear.com/2b54e442/6fc8824a-1d55-4b35-93be-3004d46885e3.png" width=80% title="Kaito 架构" alt="Kaito 架构"> </div>

上图展示了 Kaito 架构概览。其主要组件包括:

  • 工作空间控制器:协调 workspace 自定义资源,创建 machine(下文解释)自定义资源以触发节点自动配置,并根据模型预设配置创建推理或微调工作负载(deploymentstatefulsetjob)。
  • 节点配置控制器:控制器名称为 gpu-provisioner helm chart 中的 gpu-provisioner。它使用源自 Karpentermachine CRD 与工作空间控制器交互。它集成了 Azure Resource Manager REST API,以将新的 GPU 节点添加到 AKS 集群。

注意:gpu-provisioner 是一个开源组件。如果其他控制器支持 Karpenter-core API,可以替换它。

安装

请查看此处的安装指南。

快速开始

安装 Kaito 后,可以尝试以下命令启动 falcon-7b 推理服务。

$ cat examples/inference/kaito_workspace_falcon_7b.yaml apiVersion: kaito.sh/v1alpha1 kind: Workspace metadata: name: workspace-falcon-7b resource: instanceType: "Standard_NC12s_v3" labelSelector: matchLabels: apps: falcon-7b inference: preset: name: "falcon-7b" $ kubectl apply -f examples/inference/kaito_workspace_falcon_7b.yaml

可以通过运行以下命令跟踪工作空间状态。当 WORKSPACEREADY 列变为 True 时,表示模型已成功部署。

$ kubectl get workspace workspace-falcon-7b NAME INSTANCE RESOURCEREADY INFERENCEREADY WORKSPACEREADY AGE workspace-falcon-7b Standard_NC12s_v3 True True True 10m

接下来,可以找到推理服务的集群 IP,并使用临时的 curl pod 在集群中测试服务端点。

$ kubectl get svc workspace-falcon-7b NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE workspace-falcon-7b ClusterIP <CLUSTERIP> <none> 80/TCP,29500/TCP 10m export CLUSTERIP=$(kubectl get svc workspace-falcon-7b -o jsonpath="{.spec.clusterIPs[0]}") $ kubectl run -it --rm --restart=Never curl --image=curlimages/curl -- curl -X POST http://$CLUSTERIP/chat -H "accept: application/json" -H "Content-Type: application/json" -d "{\"prompt\":\"您的问题在这里\"}"

使用方法

Kaito 支持的模型的详细使用说明可以在这里找到。如果用户想部署自己的容器化模型,他们可以在工作空间自定义资源的 inference 字段中提供 pod 模板(详情请参见 API 定义)。控制器将使用所有配置的 GPU 节点创建部署工作负载。请注意,目前控制器处理自动模型升级。它仅根据预设配置创建推理工作负载(如果工作负载不存在)。

Kaito 支持的模型数量正在增长!请查看此文档,了解如何添加新支持的模型。

从 v0.3.0 版本开始,Kaito 支持模型微调和在推理服务中使用微调后的适配器。有关更多信息,请参阅微调文档推理文档

常见问题

如何确保首选节点正确标记以在我的工作空间中使用?

要使用首选节点,请确保节点具有 labelSelector 中 matchLabels 下指定的标签。例如,如果您的 labelSelector 是:

  labelSelector:
    matchLabels:
      apps: falcon-7b

那么节点应该有标签:apps=falcon-7b

如何将现有部署升级以使用最新的模型配置?

使用托管的公共模型时,用户可以手动删除现有的推理工作负载(DeploymentStatefulSet),工作空间控制器将使用当前版本中定义的最新预设配置(例如,镜像版本)创建一个新的工作负载。对于私有模型,建议在 Spec 中使用新的镜像版本创建一个新的工作空间。

如何更新模型/推理参数以覆盖 Kaito 预设配置?

Kaito 提供了有限的功能,可以手动覆盖使用 transformer 运行时的模型的预设配置。 要更新已部署模型的参数,请对工作负载执行 kubectl edit,该工作负载可能是 StatefulSetDeployment。 例如,要在 falcon-7b-instruct 部署上启用 4 位量化,您可以执行:

kubectl edit deployment workspace-falcon-7b-instruct

在部署规范中,找到并修改命令字段。

原始

accelerate launch --num_processes 1 --num_machines 1 --machine_rank 0 --gpu_ids all inference_api.py --pipeline text-generation --torch_dtype bfloat16

修改以启用 4 位量化

accelerate launch --num_processes 1 --num_machines 1 --machine_rank 0 --gpu_ids all inference_api.py --pipeline text-generation --torch_dtype bfloat16 --load_in_4bit

目前,我们允许用户手动更改以下参数:

  • pipeline:对于文本生成模型,这可以是 text-generationconversational
  • load_in_4bitload_in_8bit:模型量化分辨率。

如果您需要自定义其他参数,请提交问题以供未来可能纳入考虑。

instruct 模型和非 instruct 模型有什么区别?

主要区别在于它们的预期用途。Instruct 模型是经过微调的版本,针对交互式聊天应用进行了优化。由于它们在对话环境中表现更好,通常是大多数实现的首选。 另一方面,非 instruct 或原始模型是为进一步微调而设计的。

贡献

阅读更多

<!-- markdown-link-check-disable -->

本项目欢迎贡献和建议。大多数贡献需要您同意一份贡献者许可协议 (CLA),声明您有权并实际授予我们使用您贡献的权利。有关详细信息,请访问 https://cla.opensource.microsoft.com

当您提交拉取请求时,CLA 机器人会自动确定您是否需要提供 CLA,并适当地装饰 PR(例如,状态检查、评论)。只需按照机器人提供的说明操作即可。您只需在所有使用我们 CLA 的仓库中执行一次此操作。

本项目已采用 Microsoft 开源行为准则。 有关更多信息,请参阅行为准则常见问题解答或联系 opencode@microsoft.com 获取任何其他问题或意见。

商标

本项目可能包含项目、产品或服务的商标或标志。Microsoft 商标或标志的授权使用必须遵循并遵守 Microsoft 的商标和品牌准则。 在本项目的修改版本中使用 Microsoft 商标或标志不得造成混淆或暗示 Microsoft 赞助。 任何第三方商标或标志的使用均受这些第三方的政策约束。

许可证

参见 LICENSE

行为准则

本项目已采用 Microsoft 开源行为准则。有关更多信息,请参阅行为准则常见问题解答或联系 opencode@microsoft.com 获取任何其他问题或意见。

联系方式

"Kaito 开发者" kaito-dev@microsoft.com

编辑推荐精选

TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

下拉加载更多