
Kafka 指标导出工具for Prometheus
kafka_exporter 是一个专为 Prometheus 设计的 Kafka 指标导出工具。支持 Apache Kafka 0.10.1.0 及以上版本,可收集 Broker、Topic 和消费者组的关键指标。提供二进制文件和 Docker 镜像,部署简便。通过丰富配置选项,可灵活定制监控范围和安全设置。集成 Grafana 仪表板,便于数据可视化。适用于需要全面监控 Kafka 集群性能的场景。
Prometheus的Kafka导出器。有关Kafka的其他指标,请查看JMX导出器。
支持Apache Kafka 0.10.1.0版本(及更高版本)。
可以从发布页面下载二进制文件。
make
make docker
docker pull danielqsj/kafka-exporter:latest
可以直接使用,而无需自己构建镜像。(Docker Hub danielqsj/kafka-exporter)
kafka_exporter --kafka.server=kafka:9092 [--kafka.server=another-server ...]
docker run -ti --rm -p 9308:9308 danielqsj/kafka-exporter --kafka.server=kafka:9092 [--kafka.server=another-server ...]
创建一个docker-compose.yml文件
services:
kafka-exporter:
image: danielqsj/kafka-exporter
command: ["--kafka.server=kafka:9092", "[--kafka.server=another-server ...]"]
ports:
- 9308:9308
然后运行
docker-compose up -d
此镜像可通过不同的参数进行配置
| 参数名 | 默认值 | 描述 |
|---|---|---|
| kafka.server | kafka:9092 | Kafka服务器的地址(主机:端口) |
| kafka.version | 2.0.0 | Kafka代理版本 |
| sasl.enabled | false | 使用SASL/PLAIN连接 |
| sasl.handshake | true | 仅当使用非Kafka SASL代理时设置为false |
| sasl.username | SASL用户名 | |
| sasl.password | SASL用户密码 | |
| sasl.mechanism | SASL机制可以是plain、scram-sha512、scram-sha256 | |
| sasl.service-name | 使用Kerberos认证时的服务名称 | |
| sasl.kerberos-config-path | Kerberos配置路径 | |
| sasl.realm | Kerberos领域 | |
| sasl.keytab-path | Kerberos keytab文件路径 | |
| sasl.kerberos-auth-type | Kerberos认证类型。可以是'keytabAuth'或'userAuth' | |
| tls.enabled | false | 使用TLS连接到Kafka |
| tls.server-name | 用于验证返回证书上的主机名,除非设置了tls.insecure-skip-tls-verify。 应提供Kafka服务器的名称 | |
| tls.ca-file | Kafka TLS客户端认证的可选证书颁发机构文件 | |
| tls.cert-file | Kafka客户端认证的可选证书文件 | |
| tls.key-file | Kafka客户端认证的可选密钥文件 | |
| tls.insecure-skip-tls-verify | false | 如果为true,将不检查服务器证书的有效性 |
| server.tls.enabled | false | 为Web服务器启用TLS |
| server.tls.mutual-auth-enabled | false | 启用TLS客户端相互认证 |
| server.tls.ca-file | Web服务器的证书颁发机构文件 | |
| server.tls.cert-file | Web服务器的证书文件 | |
| server.tls.key-file | Web服务器的密钥文件 | |
| topic.filter | .* | 确定要收集哪些主题的正则表达式 |
| topic.exclude | ^$ | 确定要排除哪些主题的正则表达式 |
| group.filter | .* | 确定要收集哪些消费者组的正则表达式 |
| group.exclude | ^$ | 确定要排除哪些消费者组的正则表达式 |
| web.listen-address | :9308 | Web界面和遥测的监听地址 |
| web.telemetry-path | /metrics | 暴露指标的路径 |
| log.enable-sarama | false | 开启Sarama日志记录 |
| use.consumelag.zookeeper | false | 如果需要使用来自zookeeper的组 |
| zookeeper.server | localhost:2181 | Zookeeper服务器的地址(主机) |
| kafka.labels | Kafka集群名称 | |
| refresh.metadata | 30s | 元数据刷新间隔 |
| offset.show-all | true | 是否显示所有消费者组的偏移量/滞后,否则只显示已连接的消费者组 |
| concurrent.enable | false | 如果为true,所有抓取将触发Kafka操作,否则它们将共享结果。警告:在大型集群上应禁用此选项 |
| topic.workers | 100 | 主题工作线程数量 |
| verbosity | 0 | 日志详细程度 |
布尔值由Kingpin进行唯一管理。每个布尔标志都有一个否定补充:
--<name>和--no-<name>。
例如:
如果需要禁用sasl.handshake,可以添加标志--no-sasl.handshake
关于暴露的Prometheus指标的文档。
有关底层指标的详细信息,请参阅Apache Kafka。
指标详情
| 名称 | 暴露的信息 |
|---|---|
kafka_brokers | Kafka集群中的代理数量 |
指标输出示例
# HELP kafka_brokers Kafka集群中的代理数量。 # TYPE kafka_brokers gauge kafka_brokers 3
指标详情
| 名称 | 暴露的信息 |
|---|---|
kafka_topic_partitions | 该主题的分区数量 |
kafka_topic_partition_current_offset | 主题/分区上代理的当前偏移量 |
kafka_topic_partition_oldest_offset | 主题/分区上代理的最旧偏移量 |
kafka_topic_partition_in_sync_replica | 该主题/分区的同步副本数量 |
kafka_topic_partition_leader | 该主题/分区的领导者代理ID |
kafka_topic_partition_leader_is_preferred | 如果主题/分区使用首选代理则为1 |
kafka_topic_partition_replicas | 该主题/分区的副本数量 |
kafka_topic_partition_under_replicated_partition | 如果主题/分区副本数不足则为1 |
指标输出示例
# HELP kafka_topic_partitions 该主题的分区数量 # TYPE kafka_topic_partitions gauge kafka_topic_partitions{topic="__consumer_offsets"} 50 # HELP kafka_topic_partition_current_offset 主题/分区上代理的当前偏移量 # TYPE kafka_topic_partition_current_offset gauge kafka_topic_partition_current_offset{partition="0",topic="__consumer_offsets"} 0 # HELP kafka_topic_partition_oldest_offset 主题/分区上代理的最旧偏移量 # TYPE kafka_topic_partition_oldest_offset gauge kafka_topic_partition_oldest_offset{partition="0",topic="__consumer_offsets"} 0 # HELP kafka_topic_partition_in_sync_replica 该主题/分区的同步副本数量 # TYPE kafka_topic_partition_in_sync_replica gauge kafka_topic_partition_in_sync_replica{partition="0",topic="__consumer_offsets"} 3 # HELP kafka_topic_partition_leader 该主题/分区的领导者代理ID # TYPE kafka_topic_partition_leader gauge kafka_topic_partition_leader{partition="0",topic="__consumer_offsets"} 0 # HELP kafka_topic_partition_leader_is_preferred 如果主题/分区使用首选代理则为1 # TYPE kafka_topic_partition_leader_is_preferred gauge kafka_topic_partition_leader_is_preferred{partition="0",topic="__consumer_offsets"} 1 # HELP kafka_topic_partition_replicas 该主题/分区的副本数量 # TYPE kafka_topic_partition_replicas gauge kafka_topic_partition_replicas{partition="0",topic="__consumer_offsets"} 3 # HELP kafka_topic_partition_under_replicated_partition 如果主题/分区副本数不足则为1 # TYPE kafka_topic_partition_under_replicated_partition gauge kafka_topic_partition_under_replicated_partition{partition="0",topic="__consumer_offsets"} 0
指标详情
| 名称 | 暴露的信息 |
|---|---|
kafka_consumergroup_current_offset | 消费者组在主题/分区上的当前偏移量 |
kafka_consumergroup_lag | 消费者组在主题/分区上的当前大致滞后量 |
kafka_consumergroupzookeeper_lag_zookeeper | 消费者组在主题/分区上的当前大致滞后量(zookeeper) |
要收集 kafka_consumergroupzookeeper_lag_zookeeper 指标,你必须设置以下标志:
use.consumelag.zookeeper: 启用从zookeeper收集消费滞后量zookeeper.server: 连接zookeeper的地址指标输出示例
# HELP kafka_consumergroup_current_offset 消费者组在主题/分区上的当前偏移量 # TYPE kafka_consumergroup_current_offset gauge kafka_consumergroup_current_offset{consumergroup="KMOffsetCache-kafka-manager-3806276532-ml44w",partition="0",topic="__consumer_offsets"} -1 # HELP kafka_consumergroup_lag 消费者组在主题/分区上的当前大致滞后量 # TYPE kafka_consumergroup_lag gauge kafka_consumergroup_lag{consumergroup="KMOffsetCache-kafka-manager-3806276532-ml44w",partition="0",topic="__consumer_offsets"} 1
Grafana 仪表板 ID: 7589,名称: Kafka Exporter Overview。
有关仪表板的详细信息,请参阅 Kafka Exporter Overview。
如果你喜欢 Kafka Exporter,请给我一个星标。这将帮助更多人了解 Kafka Exporter。
请随时向我发送拉取请求。
感谢这些出色的人:
<a href="https://github.com/danielqsj/kafka_exporter/graphs/contributors"> <img src="https://contrib.rocks/image?repo=danielqsj/kafka_exporter" /> </a>你的捐赠将鼓励我继续改进 Kafka Exporter。支持支付宝捐赠。

代码使用 Apache License 2.0 许可。


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


AI论文写作指导平台
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外 头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用 ,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频


实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号