cargo-chef
最初是为《Zero to Production In Rust》的部署章节开发的,这是一本使用Rust编程语言进行后端开发的实践指南。
你可以通过crates.io安装cargo-chef
,命令如下:
cargo install cargo-chef --locked
:警告: cargo-chef不适合在本地运行
它的主要用途是在实际源代码复制之前运行,以加速容器构建。不要在现有的代码库上运行它,以避免文件被覆盖。
cargo-chef
提供了两个命令:prepare
和cook
:
cargo chef --help
cargo-chef 用法: cargo chef <子命令> 子命令: cook 重新构建由`cargo chef prepare`识别的最小项目骨架,并构建它以缓存依赖项 prepare 分析当前项目,确定构建项目和缓存依赖项所需的最小文件子集(Cargo.lock和Cargo.toml清单)
prepare
命令会检查你的项目并生成一个_配方_,捕获构建依赖项所需的信息集。
cargo chef prepare --recipe-path recipe.json
这里没有什么神秘的,你可以查看recipe.json
文件:它包含了项目的骨架(例如所有Cargo.toml
文件及其相对路径,Cargo.lock
文件等)以及一些额外的信息。
特别是,它确保所有库和二进制文件都在各自的Cargo.toml
文件中明确声明,即使它们可以在默认位置找到(二进制文件为src/main.rs
,库为src/lib.rs
)。
recipe.json
相当于Python的requirements.txt
文件 - 它是cargo chef cook
命令所需的唯一输入,该命令将构建我们的依赖项:
cargo chef cook --recipe-path recipe.json
如果你想以--release
模式构建:
cargo chef cook --release --recipe-path recipe.json
你还可以选择覆盖使用哪个Rust工具链。例如,强制使用nightly
工具链:
cargo +nightly chef cook --recipe-path recipe.json
cargo-chef
设计用于在Dockerfile中使用:
FROM lukemathwalker/cargo-chef:latest-rust-1 AS chef WORKDIR /app FROM chef AS planner COPY . . RUN cargo chef prepare --recipe-path recipe.json FROM chef AS builder COPY /app/recipe.json recipe.json # 构建依赖项 - 这是缓存的Docker层! RUN cargo chef cook --release --recipe-path recipe.json # 构建应用 COPY . . RUN cargo build --release --bin app # 运行二进制文件不需要Rust工具链! FROM debian:bookworm-slim AS runtime WORKDIR /app COPY /app/target/release/app /usr/local/bin ENTRYPOINT ["/usr/local/bin/app"]
我们使用了三个阶段:第一个阶段计算配方文件,第二个阶段缓存依赖项并构建二进制文件,第三个阶段是我们的运行时环境。
只要你的依赖项不变,recipe.json
文件就保持不变,因此cargo chef cook --release --recipe-path recipe.json
的结果将被缓存,大大加快构建速度(在一些商业项目中测得的加速可达5倍)。
我们提供lukemathwalker/cargo-chef
作为预构建的Docker镜像,其中同时包含Rust和cargo-chef
。
标签方案为 <cargo-chef 版本>-rust-<rust 版本>
。
例如,0.1.22-rust-1.56.0
。
你可以选择使用以下方式获取 cargo-chef
或 rust
的最新版本:
latest-rust-1.56.0
(使用最新的 cargo-chef
和特定的 Rust 版本);0.1.22-rust-latest
(使用最新的 Rust 和特定的 cargo-chef
版本)。
你可以在 Dockerhub 上找到所有可用的标签。:警告: 你必须在所有阶段使用相同的 Rust 版本 如果你在某个阶段使用了不同的 Rust 版本, 缓存将无法按预期工作。
如果你不想使用 lukemathwalker/cargo-chef
镜像,可以在 Dockerfile 中直接安装 CLI:
FROM rust:1 AS chef # 我们只需支付一次安装成本, # 从第二次构建开 始就会被缓存 RUN cargo install cargo-chef WORKDIR app FROM chef AS planner COPY . . RUN cargo chef prepare --recipe-path recipe.json FROM chef AS builder COPY /app/recipe.json recipe.json # 构建依赖项 - 这是缓存的 Docker 层! RUN cargo chef cook --release --recipe-path recipe.json # 构建应用程序 COPY . . RUN cargo build --release --bin app # 我们不需要 Rust 工具链来运行二进制文件! FROM debian:bookworm-slim AS runtime WORKDIR app COPY /app/target/release/app /usr/local/bin ENTRYPOINT ["/usr/local/bin/app"]
如果你想使用 alpine
发行版运行应用程序,需要创建一个完全静态的二进制文件。
推荐的方法是使用 muslrust
为 x86_64-unknown-linux-musl
目标构建。
cargo-chef
适用于 x86_64-unknown-linux-musl
,但我们是在交叉编译 - 必须明确指定目标工具链。
示例 Dockerfile 如下:
# 使用 `rust-musl-builder` 作为基础镜像,而不是 # 官方 Rust 工具链 FROM clux/muslrust:stable AS chef USER root RUN cargo install cargo-chef WORKDIR /app FROM chef AS planner COPY . . RUN cargo chef prepare --recipe-path recipe.json FROM chef AS builder COPY /app/recipe.json recipe.json # 注意我们正在指定 --target 标志! RUN cargo chef cook --release --target x86_64-unknown-linux-musl --recipe-path recipe.json COPY . . RUN cargo build --release --target x86_64-unknown-linux-musl --bin app FROM alpine AS runtime RUN addgroup -S myuser && adduser -S myuser -G myuser COPY /app/target/x86_64-unknown-linux-musl/release/app /usr/local/bin/ USER myuser CMD ["/usr/local/bin/app"]
cargo-chef
已在一些开源项目和商业项目上进行了测试,但我们的测试肯定没有涵盖 cargo build
自定义的所有可能性,我们确信还有一些需要改进的粗糙边缘 - 请在 GitHub 上提交问题。
cargo-chef
的优点:一种常见的替代方法是将最小的 main.rs
与 Cargo.toml
和 Cargo.lock
一起加载到容器中,以构建仅包含依赖项的 Docker 层(更多信息请点击这里)。与 cargo-chef
相比,这种方法较为脆弱,因为 cargo-chef
可以:
Dockerfile
进行手动编辑cargo chef cook
和 cargo build
必须从相同的工作目录执行。如果你使用 cat
检查项目 target/debug/deps
下的 *.d
文件,你会注意到它们包含引用项目 target
目录的绝对路径。如果移动,cargo
将无法利用它们作为缓存的依赖项;cargo build
将从头开始构建本地依赖项(当前项目之外),即使它们没有更改(参见 cargo
仓库中的这个长问题);根据 Apache License, Version 2.0 或 MIT license 选择其一许可。 除非你另有明确声明,否则你有意提交以包含在本 crate 中的任何贡献,按照 Apache-2.0 许可证中的定义,均应按上述方式双重许可,无任何附加条款或条件。
AI小说写作助手,一站式润色、改写、扩写
蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号