gitlab-ci-pipelines-exporter 允许您使用 Prometheus 或任何支持 OpenMetrics 格式的监控解决方案来监控您的 GitLab CI 流水线。
您可以在 GitLab 文档 中找到更多关于它如何参与提高流水线效率的信息。
这里有一些我使用这些指标制作的 Grafana 仪表板。此外,导出指标的详细列表在此维护。

grafana.com 仪表板 #10620

grafana.com 仪表板 #13328

grafana.com 仪表板 #13329
如果您想快速尝试使用自己的数据,请查看 examples/quickstart 文件夹,其中包含使用 docker-compose 在 约5分钟内 配置导出器、prometheus 和 grafana 测试版本的文档。
~$ go run github.com/mvisonneau/gitlab-ci-pipelines-exporter/cmd/gitlab-ci-pipelines-exporter@latest
~$ snap install gitlab-ci-pipelines-exporter
~$ brew install mvisonneau/tap/gitlab-ci-pipelines-exporter
~$ docker run -it --rm docker.io/mvisonneau/gitlab-ci-pipelines-exporter ~$ docker run -it --rm ghcr.io/mvisonneau/gitlab-ci-pipelines-exporter ~$ docker run -it --rm quay.io/mvisonneau/gitlab-ci-pipelines-exporter
~$ scoop bucket add https://github.com/mvisonneau/scoops ~$ scoop install gitlab-ci-pipelines-exporter
~$ nix-env -iA nixos.prometheus-gitlab-ci-pipelines-exporter
查看最新发布页面以选择您喜欢的版本。这里有一个获取最新版本的辅助工具:
~$ export GCPE_VERSION=$(curl -s "https://api.github.com/repos/mvisonneau/gitlab-ci-pipelines-exporter/releases/latest" | grep '"tag_name":' | sed -E 's/.*"([^"]+)".*/\1/')
# 二进制文件(例如:linux/amd64) ~$ wget https://github.com/mvisonneau/gitlab-ci-pipelines-exporter/releases/download/${GCPE_VERSION}/gitlab-ci-pipelines-exporter_${GCPE_VERSION}_linux_amd64.tar.gz ~$ tar zxvf gitlab-ci-pipelines-exporter_${GCPE_VERSION}_linux_amd64.tar.gz -C /usr/local/bin # DEB 包(例如:linux/386) ~$ wget https://github.com/mvisonneau/gitlab-ci-pipelines-exporter/releases/download/${GCPE_VERSION}/gitlab-ci-pipelines-exporter_${GCPE_VERSION}_linux_386.deb ~$ dpkg -i gitlab-ci-pipelines-exporter_${GCPE_VERSION}_linux_386.deb # RPM 包(例如:linux/arm64) ~$ wget https://github.com/mvisonneau/gitlab-ci-pipelines-exporter/releases/download/${GCPE_VERSION}/gitlab-ci-pipelines-exporter_${GCPE_VERSION}_linux_arm64.rpm ~$ rpm -ivh gitlab-ci-pipelines-exporter_${GCPE_VERSION}_linux_arm64.rpm
如果您想在 kubernetes 上运行它,有一个专门用于此目的的 helm chart。
您可以查看 chart 的 values.yml 以获取完整的配置选项。
# 将 helm 仓库添加到您的本地客户端 ~$ helm repo add mvisonneau https://charts.visonneau.fr # 为导出器配置最小配置 ~$ cat <<EOF > values.yml config: gitlab: url: https://gitlab.example.com # 您也可以使用 --gitlab-token 或 $GCPE_GITLAB_TOKEN 环境变量配置令牌 token: xrN14n9-ywvAFxxxxxx projects: - name: foo/project EOF # 在 Kubernetes 集群上发布 chart ~$ helm upgrade -i gitlab-ci-pipelines-exporter mvisonneau/gitlab-ci-pipelines-exporter -f values.yml
配置语法在此维护。
# 在磁盘上的某个位置写入最小配置文件 ~$ cat <<EOF > $(pwd)/config.yml gitlab: url: https://gitlab.example.com # 您也可以使用 --gitlab-token 或 $GCPE_GITLAB_TOKEN 环境变量配置令牌 token: <your_token> projects: - name: foo/project - name: bar/project wildcards: - owner: name: foo kind: group EOF # 如果您已安装二进制文件 ~$ gitlab-ci-pipelines-exporter --config /etc/config.yml # 否则,如果您有 docker 可用,使用方法同样简单: ~$ docker run -it --rm \ --name gitlab-ci-pipelines-exporter \ -v $(pwd)/config.yml:/etc/config.yml \ -p 8080:8080 \ mvisonneau/gitlab-ci-pipelines-exporter:latest \ run --config /etc/config.yml
然后您应该能看到以下日志
INFO[0000] starting exporter gitlab-endpoint="https://gitlab.com" on-init-fetch-refs-from-pipelines=true pulling-pipelines-every=60s pulling-projects-every=15s pulling-refs-every=10s pulling-workers=2 rate-limit=10rps INFO[0000] configured wildcards count=1 INFO[0000] found new project project-name=foo/project wildcard-archived=false wildcard-owner-include-subgroups=false wildcard-owner-kind=group wildcard-owner-name=foo wildcard-search= INFO[0000] found new project project-name=foo/bar wildcard-archived=false wildcard-owner-include-subgroups=false wildcard-owner-kind=group wildcard-owner-name=foo wildcard-search= INFO[0000] configured projects count=3 INFO[0000] started, now serving requests listen-address=":8080" INFO[0000] found project refs project-path-with-namespace=foo/project project-ref=main INFO[0000] found project refs project-path-with-namespace=bar/project project-ref=main INFO[0000] found project refs project-path-with-namespace=foo/bar project-ref=main
这是您应该获得的指标示例,导出指标的详细列表在此维护。
~$ curl -s localhost:8080/metrics | grep gitlab_ci # HELP gitlab_ci_pipeline_last_run_duration_seconds Duration of last pipeline run # TYPE gitlab_ci_pipeline_last_run_duration_seconds gauge gitlab_ci_pipeline_last_run_duration_seconds{project="foo/project",ref="dev",topics="",variables=""} 81 gitlab_ci_pipeline_last_run_duration_seconds{project="foo/project",ref="main",topics="",variables=""} 420 gitlab_ci_pipeline_last_run_duration_seconds{project="bar/project",ref="main",topics="",variables=""} 334 gitlab_ci_pipeline_last_run_duration_seconds{project="foo/bar",ref="main",topics="",variables="FOO:BAR"} 55 # HELP gitlab_ci_pipeline_last_run_id ID of the most recent pipeline # TYPE gitlab_ci_pipeline_last_run_id gauge gitlab_ci_pipeline_last_run_id{project="foo/project",ref="dev",topics="",variables=""} 4.0059611e+07 gitlab_ci_pipeline_last_run_id{project="foo/project",ref="main",topics="",variables=""} 1.25351545e+08 gitlab_ci_pipeline_last_run_id{project="bar/project",ref="main",topics="",variables=""} 1.33308085e+08 gitlab_ci_pipeline_last_run_id{project="foo/bar",ref="main",topics="",variables="FOO:BAR"} 1.40420947e+08 # HELP gitlab_ci_pipeline_last_run_status Status of the most recent pipeline # TYPE gitlab_ci_pipeline_last_run_status gauge gitlab_ci_pipeline_last_run_status{project="foo/project",ref="dev",status="canceled",topics="",variables=""} 0 gitlab_ci_pipeline_last_run_status{project="foo/project",ref="dev",status="failed",topics="",variables=""} 1 gitlab_ci_pipeline_last_run_status{project="foo/project",ref="dev",status="manual",topics="",variables=""} 0 gitlab_ci_pipeline_last_run_status{project="foo/project",ref="dev",status="pending",topics="",variables=""} 0 gitlab_ci_pipeline_last_run_status{project="foo/project",ref="dev",status="running",topics="",variables=""} 0 gitlab_ci_pipeline_last_run_status{project="foo/project",ref="dev",status="skipped",topics="",variables=""} 0 gitlab_ci_pipeline_last_run_status{project="foo/project",ref="dev",status="success",topics="",variables=""} 0 gitlab_ci_pipeline_last_run_status{project="foo/project",ref="main",status="canceled",topics="",variables=""} 0 gitlab_ci_pipeline_last_run_status{project="foo/project",ref="main",status="failed",topics="",variables=""} 0 gitlab_ci_pipeline_last_run_status{project="foo/project",ref="main",status="manual",topics="",variables=""} 0 gitlab_ci_pipeline_last_run_status{project="foo/project",ref="main",status="pending",topics="",variables=""} 0 gitlab_ci_pipeline_last_run_status{project="foo/project",ref="main",status="running",topics="",variables=""} 0 gitlab_ci_pipeline_last_run_status{project="foo/project",ref="main",status="skipped",topics="",variables=""} 0 gitlab_ci_pipeline_last_run_status{project="foo/project",ref="main",status="success",topics="",variables=""} 1 gitlab_ci_pipeline_last_run_status{project="bar/project",ref="main",status="canceled",topics="",variables=""} 0 gitlab_ci_pipeline_last_run_status{project="bar/project",ref="main",status="failed",topics="",variables=""} 0 gitlab_ci_pipeline_last_run_status{project="bar/project",ref="main",status="manual",topics="",variables=""} 0 gitlab_ci_pipeline_last_run_status{project="bar/project",ref="main",status="pending",topics="",variables=""} 0 gitlab_ci_pipeline_last_run_status{project="bar/project",ref="main",status="running",topics="",variables=""} 0 gitlab_ci_pipeline_last_run_status{project="bar/project",ref="main",status="skipped",topics="",variables=""} 0


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


AI论文写作指导平台
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

