Windmill 是<b>完全开源的(AGPLv3)</b>,Windmill Labs 提供专用实例、商业支持和许可证。
https://github.com/windmill-labs/windmill/assets/122811744/0b132cd1-ee67-4505-822f-0c7ee7104252
用Python、TypeScript、Go或Bash定义一个最小化和通用的脚本,解决特定任务。代码可以在提供的Web IDE中定义,或者与您自己的GitHub仓库同步(例如通过VS Code扩展):
您的脚本参数会自动解析并生成前端。
让它流动起来!您可以链接您的脚本或社区在WindmillHub上共享的脚本。
在您的脚本和流程之上构建复杂的用户界面。
脚本和流程也可以通过cron调度(例如 '*/5 * * * *')或webhooks触发。
您可以在Windmill之上构建整个基础设施!
//从npm导入任何依赖 import * as wmill from "windmill-client" import * as cowsay from 'cowsay@1.5.0'; // 填写类型,或使用+Resource类型获取 资源的类型安全引用 type Postgresql = { host: string; port: number; user: string; dbname: string; sslmode: string; password: string; }; export async function main( a: number, b: "my" | "enum", c: Postgresql, d = "从默认参数推断的字符串类型", e = { nested: "object" } //f: wmill.Base64 ) { const email = process.env["WM_EMAIL"]; // 变量是有权限的,按路径 let variable = await wmill.getVariable("f/company-folder/my_secret"); const lastTimeRun = await wmill.getState(); // 日志会被打印并始终可检查 console.log(cowsay.say({ text: "你好 " + email + " " + lastTimeRun })); await wmill.setState(Date.now()); // 返回值序列化为JSON return { foo: d, variable }; }
我们有一个强大的命令行界面(CLI)可以与Windmill平台交互,并从本地文件、GitHub仓库同步您的脚本,以及通过本地命令在实例上运行脚本和流程。查看更多详情。
您可以轻松地在本地运行脚本,只需为wmill
客户端库传递正确的环境变量,以便在需要时从您的实例获取资源和变量。详情请见:
https://www.windmill.dev/docs/advanced/local_development。
为了在本地开发和测试脚本和流程,我们推荐使用Windmill VS Code扩展:https://www.windmill.dev/docs/cli_local_dev/vscode-extension。
我们将Windmill与其他可自托管的工作流引擎(Airflow、Prefect和Temporal)进行了比较,Windmill在两个基准测试中都是性能最佳的解决方案:一个由40个轻量级任务组成的流程,以及一个由10个长时间运行任务组成的流程。
所有方法论和结果可在我们的基准测试页面上查看。
Windmill可以使用nsjail。它具有生产级多租户安全性。不要相信我们的话,请参考fly.io的评价。
每个工作区都有一个加密密钥,用于加密存储在Windmill的键值存储中的凭证和密钥。
此外,我们强烈建议您加密整个Postgres数据库。这正是我们在https://app.windmill.dev上所做的。
一旦作业开始,与在节点上使用相应运行器(Deno/Go/Python/Bash)运行相同脚本相比,没有额外开销。从队列中拉取作业、启动作业,然后将结果发送回数据库的额外延迟约为50毫秒。一个典型的轻量级deno作业总共需要大约100毫秒。
这里我们只提供docker-compose设置。对于更高级的设置,如从源代码编译或不使用postgres超级用户,请参阅自托管文档。
Windmill可以使用3个文件(docker-compose.yml、Caddyfile和.env)通过一个命令部署。
确保Docker已启动,然后运行:
curl https://raw.githubusercontent.com/windmill-labs/windmill/main/docker-compose.yml -o docker-compose.yml
curl https://raw.githubusercontent.com/windmill-labs/windmill/main/Caddyfile -o Caddyfile
curl https://raw.githubusercontent.com/windmill-labs/windmill/main/.env -o .env
docker compose up -d
默认的超级管理员用户是:admin@windmill.dev / changeme。
从这里,您可以按照设置应用程序创建其他用户。
更多详情请参阅自托管文档。
我们在以下地址发布helm charts: https://github.com/windmill-labs/windmill-helm-charts。
每个发布版本都包含相应的x86_64二进制文件。您可以使用以下一组bash命令简单地下载最新的windmill
二进制文件。
BINARY_NAME='windmill-amd64' # 或windmill-ee-amd64(企业版) LATEST_RELEASE=$(curl -L -s -H 'Accept: application/json' https://github.com/windmill-labs/windmill/releases/latest) LATEST_VERSION=$(echo $LATEST_RELEASE | sed -e 's/.*"tag_name":"\([^"]*\)".*/\1/') ARTIFACT_URL="https://github.com/windmill-labs/windmill/releases/download/$LATEST_VERSION/$BINARY_NAME" wget "$ARTIFACT_URL" -O windmill
Windmill社区版允许直接从UI的超级管理员设置中配置OAuth、SSO(包括Google Workspace SSO、Microsoft/Azure和Okta)。请注意,社区版的SSO用户数量限制为10个。
查看文档。
要自托管Windmill,您必须遵守AGPLv3许可的条款,对于个人使用您不需要担心。对于商业用途,如果您不以任何方式向用户重新暴露Windmill,并且对AGPLv3感到满意,那么您应该没问题。
要将任何Windmill部分重新暴露给您的用户作为产品功能,或在Windmill之上构建功能,为了遵守AGPLv3,您的产品必须是AGPLv3,或者您必须获得商业许可。如果您有任何疑问,请联系ruben@windmill.dev。
此外,商业许可还为您提供专门的工程师,帮助您将当前基础设施过渡到Windmill,提供严格SLA的支持,以及我们的全局缓存同步,用于10+节点到200+节点集群的高性能/无依赖缓存未命中。
在Windmill中,集成被称为资源和资源类型。每个资源都有一个资源类型,定义了资源需要实现的模式。
在自托管实例上,您可能希望从WindmillHub导入所有已批准的资源类型。设置脚本将提示您是否要每天自动同步。
环境变量名称 | 默认值 | 描述 | 适用于API服务器/工作器/全部 |
---|---|---|---|
DATABASE_URL | Postgres数据库URL。 | 全部 | |
WORKER_GROUP | default | 工作器所属的工作组,并从中获取其配置。 | 工作器 |
MODE | standalone | 二进制文件的模式。可能的值:standalone、worker、server | 全部 |
METRICS_ADDR | None | (仅限企业版)在/metrics路径上暴露Prometheus指标的套接字地址。设置为"true"则在8001端口上暴露。 | 全部 |
JSON_FMT | false | 以JSON格式而不是logfmt格式输出日志。 | 全部 |
BASE_URL | http://localhost:8000 | 公开访问您实例的基础URL。如果有实例设置,则会被覆盖。 | 服务器 |
SCRIPT_TOKEN_EXPIRY | 900 | 脚本开始时生成的临时令牌的默认有效期。 | 工作器 |
ZOMBIE_JOB_TIMEOUT | 30 | 如果工作器未发送关于正在处理作业的ping,则认为作业成为僵尸的超时时间(服务器每30秒检查一次僵尸作业)。 | 服务器 |
RESTART_ZOMBIE_JOBS | true | 如果为true,则重启僵尸作业(使用相同的uuid和一些日志进行原地重启);如果为false,则使僵尸作业失败。 | 服务器 |
SLEEP_QUEUE | 50 | 在数据库中检查新作业之间睡眠的毫秒数。它会乘以NUM_WORKERS,使得平均而言,对于一个工作器实例,每SLEEP_QUEUE毫秒有一次拉取。 | 工作器 |
MAX_LOG_SIZE | 500000 | 作业可以发出的最大字符数(日志+结果)。 | 工作器 |
DISABLE_NUSER | false | 如果启用了Nsjail,则禁用nsjail的clone_newuser 设置。 | 工作器 |
KEEP_JOB_DIR | false | 作业完成后保留作业目录。用于调试。 | 工作器 |
LICENSE_KEY(仅限企业版) | None | Windmill企业版在启动时检查的许可证密钥。 | 工作器 |
S3_CACHE_BUCKET(仅限企业版) | None | 用于同步工作器缓存的S3存储桶。 | 工作器 |
SLACK_SIGNING_SECRET | None | Slack应用的签名密钥。参见Slack文档 | 服务器 |
COOKIE_DOMAIN | None | Cookie的域。如果未设置,浏览器将根据完整的源设置Cookie。 | 服务器 |
DENO_PATH | /usr/bin/deno | Deno二进制文件的路径。 | 工作器 |
PYTHON_PATH | /usr/local/bin/python3 | Python二进制文件的路径。 | 工作器 |
GO_PATH | /usr/bin/go | Go二进制文件的路径。 | 工作器 |
GOPRIVATE | 用于私有Go模块的GOPRIVATE环境变量。 | 工作器 | |
GOPROXY | 要使用的GOPROXY环境变量。 | 工作器 | |
NETRC | 用于私有Go注册表的netrc内容。 | 工作器 | |
PIP_INDEX_URL | None | 传递给pip的索引URL。 | 工作器 |
PIP_EXTRA_INDEX_URL | None | 传递给pip的额外索引URL。 | 工作器 |
PIP_TRUSTED_HOST | None | 传递给pip的受信任主机。 | 工作器 |
PATH | None | 路径环境变量,通常是继承的。 | 工作器 |
HOME | None | 用于Go和Bash的主目录,通常是继承的。 | 工作器 |
DATABASE_CONNECTIONS | 50(服务器)/3(工作器) | 数据库连接池中的最大连接数。 | 全部 |
SUPERADMIN_SECRET | None | 允许调用者作为虚拟超级管理员superadmin@windmill.dev行事的令牌。 | 服务器 |
TIMEOUT_WAIT_RESULT | 20 | 'run_wait_result'端点超时前等待的秒数。 | 工作器 |
QUEUE_LIMIT_WAIT_RESULT | None | 在'run_wait_result'端点立即拒绝请求之前队列中的最大作业数。优先于查询参数。如果未指定,则没有限制。 | 工作器 |
DENO_AUTH_TOKENS | None | 传递给工作器以允许使用私有模块的自定义DENO_AUTH_TOKENS。 | 工作器 |
DISABLE_RESPONSE_LOGS | false | 禁用响应日志 | 服务器 |
这将使用 https://app.windmill.dev 的后端,但使用您自己的前端,并支持热代码重载。
frontend/
目录:
npm install
,npm run generate-backend-client
,然后 npm run dev
sudo caddy run --config CaddyfileRemote
http://localhost/
访问有关所有运行选项,请参阅 ./frontend/README_DEV.md 文件。
cargo install sqlx-cli
env DATABASE_URL=<YOUR_DATABASE_URL> sqlx migrate run
这也将避免sqlx的 query!
宏在编译时出现问题/usr/bin/deno
和 /usr/local/bin/python3
frontend/
目录:
npm install
,npm run generate-backend-client
,然后 npm run dev
export NODE_OPTIONS="--max-old-space-size=4096"
npm run build
,否则后端将找不到 frontend/build
文件夹并且无法编译。sudo caddy run --config Caddyfile
backend/
目录:
运行 env DATABASE_URL=<DATABASE_URL_TO_YOUR_WINDMILL_DB> RUST_LOG=info cargo run
http://localhost/
访问Windmill Labs, Inc 2023
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。
openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号