disruptor-rs

disruptor-rs

Rust实现的高性能跨线程通信库

disruptor-rs是一个Rust实现的高性能跨线程通信库。支持多种生产者-消费者模式,提供批量事件处理功能。专注低延迟设计,基准测试优于Crossbeam。支持线程亲和性设置和处理器线程命名,适用于对延迟敏感的应用场景。

Disruptor低延迟并发编程线程通信RustGithub开源项目

Crates.io Crates.io 构建 codecov

Disruptor

这是一个用Rust编写的低延迟线程间通信库。

它深受出色的LMAX Disruptor库的启发。

目录

入门

在你的Cargo.toml文件中添加以下内容:

disruptor = "3.2.0"

要了解如何使用该库的详细信息,请查看docs.rs/disruptor上的文档。

以下是一个最小示例,演示了单个和批量发布。注意,为了获得最佳延迟和吞吐量,应尽可能使用批量发布(参见下面的基准测试)。

use disruptor::*; // 环形缓冲区中的事件。 struct Event { price: f64 } fn main() { // 用于初始化环形缓冲区中事件的工厂闭包。 let factory = || { Event { price: 0.0 }}; // 用于处理事件的闭包。 let processor = |e: &Event, sequence: Sequence, end_of_batch: bool| { // 在这里添加你的处理逻辑。 }; let size = 64; let mut producer = disruptor::build_single_producer(size, factory, BusySpin) .handle_events_with(processor) .build(); // 通过`Producer`句柄将单个事件发布到Disruptor中。 for i in 0..10 { producer.publish(|e| { e.price = i as f64; }); } // 将一批事件发布到Disruptor中。 producer.batch_publish(5, |iter| { for e in iter { // `iter`保证会产生5个事件。 e.price = 42.0; } }); }// 在此处,Producer实例超出作用域,当处理器完成处理所有事件后, // Disruptor也会被释放。

该库还支持将线程固定在核心上,以避免上下文切换引起的延迟。 一个更高级的用法,演示了这一点以及多个生产者和多个相互依赖的消费者,可能如下所示:

use disruptor::*; use std::thread; struct Event { price: f64 } fn main() { let factory = || { Event { price: 0.0 }}; // 用于处理事件的闭包。 let h1 = |e: &Event, sequence: Sequence, end_of_batch: bool| { // 在这里添加处理逻辑。 }; let h2 = |e: &Event, sequence: Sequence, end_of_batch: bool| { // 在这里添加一些处理逻辑。 }; let h3 = |e: &Event, sequence: Sequence, end_of_batch: bool| { // 在这里添加更多处理逻辑。 }; let mut producer1 = disruptor::build_multi_producer(64, factory, BusySpin) // `h2`与`h1`并发处理事件。 .pin_at_core(1).handle_events_with(h1) .pin_at_core(2).handle_events_with(h2) .and_then() // `h3`在`h1`和`h2`之后处理事件。 .pin_at_core(3).handle_events_with(h3) .build(); // 创建另一个生产者。 let mut producer2 = producer1.clone(); // 发布到Disruptor。 thread::scope(|s| { s.spawn(move || { for i in 0..10 { producer1.publish(|e| { e.price = i as f64; }); } }); s.spawn(move || { for i in 10..20 { producer2.publish(|e| { e.price = i as f64; }); } }); }); }// 在此处,Producer实例超出作用域,当处理器完成处理所有事件后, // Disruptor也会被释放。

如果你需要在处理器线程中存储一些既不是Send也不是Sync的状态,例如Rc<RefCell<i32>>,那么你可以创建一个用于初始化该状态的闭包,并在构建Disruptor时将其与处理闭包一起传递。然后Disruptor将在每个事件上传递一个指向你的状态的可变引用。例如:

use std::{cell::RefCell, rc::Rc}; use disruptor::*; struct Event { price: f64 } #[derive(Default)] struct State { data: Rc<RefCell<i32>> } fn main() { let factory = || { Event { price: 0.0 }}; let initial_state = || { State::default() }; // 用于处理事件*和*状态的闭包。 let processor = |s: &mut State, e: &Event, _: Sequence, _: bool| { // 修改你的自定义状态: *s.data.borrow_mut() += 1; }; let size = 64; let mut producer = disruptor::build_single_producer(size, factory, BusySpin) .handle_events_and_state_with(processor, initial_state) .build(); for i in 0..10 { producer.publish(|e| { e.price = i as f64; }); } }

特性

  • 单生产者单消费者(SPSC)。
  • 单生产者多消费者(SPMC)与消费者相互依赖。
  • 多生产者单消费者(MPSC)。
  • 多生产者多消费者(MPMC)与消费者相互依赖。
  • 忙等待策略。
  • 事件批量发布。
  • 事件批量消费。
  • 可以为事件处理器线程设置线程亲和性。
  • 设置每个事件处理器线程的线程名称。

设计选择

该库中的一切都是关于低延迟的,这极大地影响了该库中的所有选择。 例如,你不能分配一个事件并将其移动到环形缓冲区中。相反,事件在启动时就被分配,以确保它们在内存中共同定位,从而提高缓存一致性。 然而,你仍然可以在堆上分配一个结构体,并将其所有权移动到环形缓冲区上的事件字段中。 只要你意识到这可能会增加延迟,因为结构体是由一个线程分配而由另一个线程释放的。 因此,在分配器中会发生同步。

也没有使用动态分发 - 一切都是单态的。

正确性

这个库需要使用Unsafe来实现低延迟。 虽然不能保证没有错误,但已经使用了以下方法来消除错误:

  • 最小化Unsafe块的使用。
  • 高测试覆盖率。
  • 所有测试都在CI/CD中通过Miri运行。
  • 在TLA+中进行验证(参见verification/文件夹)。

性能

SPSC和MPSC Disruptor变体已经进行了基准测试,并与Crossbeam进行了比较。请参见benches/spsc.rsbenches/mpsc.rs文件中的代码。 以下是在 2016 年的 MacBook Pro(配备 2.6 GHz 四核 Intel Core i7 处理器)上运行 SPSC 基准测试的结果。在现代 Intel Xeon 处理器上,这些数字应该会更好。此外,在 Mac 上无法隔离核心并固定线程,这本可以产生更稳定的结果。这是未来的工作。

如果您有任何改进基准测试的建议,请随时提出问题。

为了提供一个相对真实的基准测试,不仅考虑了不同大小的突发,还考虑了突发之间的不同暂停时间:0 毫秒、1 毫秒和 10 毫秒。

以下延迟是每个元素的平均延迟,置信区间为 95%(标准 criterion 设置)。捕获所有延迟并计算各种百分位数(特别是最大延迟)是未来的工作。然而,我预计下面的测量结果能代表您在实际应用中可以达到的性能。

突发之间无暂停

延迟:

突发大小CrossbeamDisruptor改进
165 ns32 ns51%
1068 ns9 ns87%
10029 ns8 ns72%

吞吐量:

突发大小CrossbeamDisruptor改进
115.2M / s31.7M / s109%
1014.5M / s117.3M / s709%
10034.3M / s119.7M / s249%

突发之间暂停 1 毫秒

延迟:

突发大小CrossbeamDisruptor改进
163 ns33 ns48%
1067 ns8 ns88%
10030 ns9 ns70%

吞吐量:

突发大小CrossbeamDisruptor改进
115.9M / s30.7M / s93%
1014.9M / s117.7M / s690%
10033.8M / s105.0M / s211%

突发之间暂停 10 毫秒

延迟:

突发大小CrossbeamDisruptor改进
151 ns32 ns37%
1067 ns9 ns87%
10030 ns10 ns67%

吞吐量:

突发大小CrossbeamDisruptor改进
119.5M / s31.6M / s62%
1014.9M / s114.5M / s668%
10033.6M / s105.0M / s213%

结论

Disruptor 和 Crossbeam 库之间显然存在差异。然而,这并不是因为 Crossbeam 库不是一个优秀的软件。事实上它很优秀。Disruptor 通过牺牲 CPU 和内存资源来换取更低的延迟和更高的吞吐量,这就是它能够达到这些结果的原因。如基准测试中 10 和 100 个事件的突发所示,Disruptor 在发布事件批次时表现更为出色。

随着突发大小的增加,两个库的性能都有很大提升,但 Disruptor 的性能对突发之间的暂停更具韧性,这也是其设计目标之一。

相关工作

有多个其他 Rust 项目模仿了 LMAX Disruptor 库:

  1. Turbine
  2. Disrustor

该库支持的一个关键特性是来自不同线程的多个生产者,而上述库都不支持这一特性(在撰写本文时)。

贡献

欢迎您创建拉取请求或提出问题,提出改进建议。

我将全权决定是否接受更改,并将重点关注这些更改是否适合本 crate 的目的和设计。

路线图

空白!所有项目都已实现。

编辑推荐精选

Keevx

Keevx

AI数字人视频创作平台

Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。

即梦AI

即梦AI

一站式AI创作平台

提供 AI 驱动的图片、视频生成及数字人等功能,助力创意创作

扣子-AI办公

扣子-AI办公

AI办公助手,复杂任务高效处理

AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!

TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
蛙蛙写作

蛙蛙写作

AI小说写作助手,一站式润色、改写、扩写

蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。

AI辅助写作AI工具蛙蛙写作AI写作工具学术助手办公助手营销助手AI助手
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

热门AI助手AI对话AI工具聊天机器人
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

下拉加载更多