一个轻量级消息队列。类似于 AWS SQS 和 RSMQ,但基于 Postgres。
源码:https://github.com/tembo-io/pgmq
Postgres 12-16。
最快的入门方式是运行 Tembo Docker 镜像,其中 PGMQ 已预装在 Postgres 中。
docker run -d --name pgmq-postgres -e POSTGRES_PASSWORD=postgres -p 5432:5432 quay.io/tembo/pg16-pgmq:latest
如果您想从源码构建,可以按照 CONTRIBUTING.md 中的说明进行操作。
要更新 PGMQ 版本,请按照 UPDATING.md 中的说明进行操作。
社区
# 连接到 Postgres psql postgres://postgres:postgres@0.0.0.0:5432/postgres
-- 在 "pgmq" 模式中创建扩展 CREATE EXTENSION pgmq;
每个队列都是 pgmq
模式中的一个表。表名是队列名称前缀为 q_
。
例如,pgmq.q_my_queue
是队列 my_queue
的表。
-- 创建队列 SELECT pgmq.create('my_queue');
create ------------- (1 row)
-- 消息以 JSON 格式发送 SELECT * from pgmq.send( queue_name => 'my_queue', msg => '{"foo": "bar1"}' );
发送函数返回消息 ID。
send ----------- 1 (1 row)
-- 可选择提供延迟 -- 这条消息将在队列中,但在 5 秒内无法被消费 SELECT * from pgmq.send( queue_name => 'my_queue', msg => '{"foo": "bar2"}', delay => 5 );
send ----------- 2 (1 row)
从队列中读取 2
条消息。使它们在 30
秒内不可见。
如果这些消息在 30 秒内未被删除或归档,它们将再次变为可见,
并可以被另一个消费者读取。
SELECT * FROM pgmq.read( queue_name => 'my_queue', vt => 30, qty => 2 );
msg_id | read_ct | enqueued_at | vt | message --------+---------+-------------------------------+-------------------------------+----------------- 1 | 1 | 2023-08-16 08:37:54.567283-05 | 2023-08-16 08:38:29.989841-05 | {"foo": "bar1"} 2 | 1 | 2023-08-16 08:37:54.572933-05 | 2023-08-16 08:38:29.989841-05 | {"foo": "bar2"}
如果队列为空,或者所有消息当前不可见,则不会返回任何行。
SELECT * FROM pgmq.read( queue_name => 'my_queue', vt => 30, qty => 1 );
msg_id | read_ct | enqueued_at | vt | message --------+---------+-------------+----+---------
-- 读取一条消息并立即从队列中删除。如果队列为空或所有消息不可见,则返回空记录。 SELECT * FROM pgmq.pop('my_queue');
msg_id | read_ct | enqueued_at | vt | message --------+---------+-------------------------------+-------------------------------+----------------- 1 | 1 | 2023-08-16 08:37:54.567283-05 | 2023-08-16 08:38:29.989841-05 | {"foo": "bar1"}
归档消息会将其从队列中移除并插入到归档表中。
-- 归档 msg_id=2 的消息。 SELECT pgmq.archive( queue_name => 'my_queue', msg_id => 2 );
archive -------------- t (1 row)
或者使用 msg_ids
(复数)参数在一个操作中归档多条消息:
首先,发送一批消息
SELECT pgmq.send_batch( queue_name => 'my_queue', msgs => ARRAY['{"foo": "bar3"}','{"foo": "bar4"}','{"foo": "bar5"}']::jsonb[] );
send_batch ------------ 3 4 5 (3 rows)
然后使用 msg_ids(复数)参数归档它们。
SELECT pgmq.archive( queue_name => 'my_queue', msg_ids => ARRAY[3, 4, 5] );
archive --------- 3 4 5 (3 rows)
可以直接使用 SQL 检查归档表。
归档表在 pgmq
模式中有 a_
前缀。
SELECT * FROM pgmq.a_my_queue;
msg_id | read_ct | enqueued_at | archived_at | vt | message --------+---------+-------------------------------+-------------------------------+-------------------------------+----------------- 2 | 0 | 2024-08-06 16:03:41.531556+00 | 2024-08-06 16:03:52.811063+00 | 2024-08-06 16:03:46.532246+00 | {"foo": "bar2"} 3 | 0 | 2024-08-06 16:03:58.586444+00 | 2024-08-06 16:04:02.85799+00 | 2024-08-06 16:03:58.587272+00 | {"foo": "bar3"} 4 | 0 | 2024-08-06 16:03:58.586444+00 | 2024-08-06 16:04:02.85799+00 | 2024-08-06 16:03:58.587508+00 | {"foo": "bar4"} 5 | 0 | 2024-08-06 16:03:58.586444+00 | 2024-08-06 16:04:02.85799+00 | 2024-08-06 16:03:58.587543+00 | {"foo": "bar5"}
再发送一条消息,以便我们可以删除它。
SELECT pgmq.send('my_queue', '{"foo": "bar6"}');
send ----------- 6 (1 row)
从名为 my_queue
的队列中删除 ID 为 6
的消息。
SELECT pgmq.delete('my_queue', 6);
delete ------------- t (1 row)
删除队列 my_queue
。
SELECT pgmq.drop_queue('my_queue');
drop_queue ----------------- t (1 row)
如果你想使用 pgmq
分区队列,你需要安装 pg_partman。
pgmq
队列表可以通过使用 pgmq.create_partitioned()
创建为分区表。pg_partman 处理所有队列表的维护工作。这包括创建新分区和删除旧分区。
分区行为在创建队列时通过 pgmq.create_partitioned()
进行配置。该函数有三个参数:
queue_name: text
:队列的名称。队列是以 q_
为前缀的 Postgres 表。例如,q_my_queue
。归档表则以 a_
为前缀,例如 a_my_queue
。
partition_interval: text
- 创建分区的间隔。可以是 pg_partman 支持的任何有效 Postgres Duration
,或整数值。当它是一个持续时间时,队列按消息发送到表的时间(enqueued_at
)进行分区。值为 'daily'
将每天创建一个新分区。当它是整数值时,队列按 msg_id
分区。值为 '100'
将每 100 条消息创建一个新分区。该值必须与 retention_interval
(基于时间或数值)一致。默认值为 daily
。对于归档表,当间隔为整数值时,将按 msg_id
分区。在持续时间的情况下,它将在 archived_at
上分区,而不像队列表。
retention_interval: text
- 保留分区的间隔。可以是 pg_partman 支持的任何有效 Postgres Duration
,或整数值。当它是一个持续时间时,将删除包含超过该持续时间数据的分区。当它是整数值时,将删除任何 msg_id
小于 max(msg_id) - retention_interval
的消息。例如,如果最大 msg_id
是 100,retention_interval
是 60,则任何 msg_id
值小于 40 的分区都将被删除。该值必须与 partition_interval
(基于时间或数值)一致。默认值为 '5 days'
。注意:retention_interval
不适用于通过 pgmq.delete()
删除或通过 pgmq.archive()
归档的消息。pgmq.delete()
永久删除消息,pgmq.archive()
将消息永久移至相应的归档表(例如,a_my_queue
)。
为了进行自动分区维护,必须在 postgresql.conf
文件中添加几个设置,该文件通常位于 postgres 的 DATADIR
中。
pg_partman_bgw.interval
在 postgresql.conf
中。以下是在 Tembo docker 镜像中设置的默认配置值。
将以下内容添加到 postgresql.conf
。注意,更改 shared_preload_libraries
需要重启 Postgres。
pg_partman_bgw.interval
设置 pg_partman
进行维护的间隔。这会创建新分区并删除超出 retention_interval
的分区。默认情况下,pg_partman
会保持当前活动分区"ahead"4个分区。
shared_preload_libraries = 'pg_partman_bgw' # 需要重启 Postgres pg_partman_bgw.interval = 60 pg_partman_bgw.role = 'postgres' pg_partman_bgw.dbname = 'postgres'
pgmq 在可见性超时内保证消息的精确一次传递。可见性超时是消息被消费者读取后对其他消费者不可见的时间。如果消息在可见性超时内未被删除或归档,它将再次变为可见并可被另一个消费者读取。可见性超时 在通过 pgmq.read()
从队列读取消息时设置。建议将 vt
值设置为大于处理消息的预期时间。应用程序成功处理消息后,应调用 pgmq.delete()
从队列中完全删除消息,或调用 pgmq.archive()
将其移至队列的归档表。
随着 pgmq 社区的成长,我们很想了解谁在使用它。请发送 PR,包含您的公司名称和 @github 用户名。
目前,官方使用 pgmq 的有:
感谢这些了不起的人:
<a href="https://github.com/tembo-io/pgmq/graphs/contributors"> <img src="https://contrib.rocks/image?repo=tembo-io/pgmq" /> </a>AI数字人视频创作平台
Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。
一站式AI创作平台
提供 AI 驱动的图片、视频生成及数字人等功能,助力创意创作
AI办公助手,复杂任务高效处理
AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!
AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI小说写作助手,一站式润色、改写、扩写
蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号