这是一个用Rust编写的低延迟线程间通信库。
它深受出色的LMAX Disruptor库的启发。
在你的Cargo.toml文件中添加以下内容:
disruptor = "3.2.0"
要了解如何使用该库的详细信息,请查看docs.rs/disruptor上的文档。
以下是一个最小示例,演示了单个和批量发布。注意,为了获得最佳延迟和吞吐量,应尽可能使用批量发布(参见下面的基准测试)。
use disruptor::*; // 环形缓冲区中的事件。 struct Event { price: f64 } fn main() { // 用于初始化环形缓冲区中事件的工厂闭包。 let factory = || { Event { price: 0.0 }}; // 用于处理事件的闭包。 let processor = |e: &Event, sequence: Sequence, end_of_batch: bool| { // 在这里添加你的处理逻辑。 }; let size = 64; let mut producer = disruptor::build_single_producer(size, factory, BusySpin) .handle_events_with(processor) .build(); // 通过`Producer`句柄将单个事件发布到Disruptor中。 for i in 0..10 { producer.publish(|e| { e.price = i as f64; }); } // 将一批事件发布到Disruptor中。 producer.batch_publish(5, |iter| { for e in iter { // `iter`保证会产生5个事件。 e.price = 42.0; } }); }// 在此处,Producer实例超出作用域,当处理器完成处理所有事件后, // Disruptor也会被释放。
该库还支持将线程固定在核心上,以避免上下文切换引起的延迟。 一个更高级的用法,演示了这一点以及多个生产者和多个相互依赖的消费者,可能如下所示:
use disruptor::*; use std::thread; struct Event { price: f64 } fn main() { let factory = || { Event { price: 0.0 }}; // 用于处理事件的闭包。 let h1 = |e: &Event, sequence: Sequence, end_of_batch: bool| { // 在这里添加处理逻辑。 }; let h2 = |e: &Event, sequence: Sequence, end_of_batch: bool| { // 在这里添加一些处理逻辑。 }; let h3 = |e: &Event, sequence: Sequence, end_of_batch: bool| { // 在这里添加更多处理逻辑。 }; let mut producer1 = disruptor::build_multi_producer(64, factory, BusySpin) // `h2`与`h1`并发处理事件。 .pin_at_core(1).handle_events_with(h1) .pin_at_core(2).handle_events_with(h2) .and_then() // `h3`在`h1`和`h2`之后处理事件。 .pin_at_core(3).handle_events_with(h3) .build(); // 创建另一个生产者。 let mut producer2 = producer1.clone(); // 发布到Disruptor。 thread::scope(|s| { s.spawn(move || { for i in 0..10 { producer1.publish(|e| { e.price = i as f64; }); } }); s.spawn(move || { for i in 10..20 { producer2.publish(|e| { e.price = i as f64; }); } }); }); }// 在此处,Producer实例超出作用域,当处理器完成处理所有事件后, // Disruptor也会被释放。
如果你需要在处理器线程中存储一些既不是Send也不是Sync的状态,例如Rc<RefCell<i32>>,那么你可以创建一个用于初始化该状态的闭包,并在构建Disruptor时将其与处理闭包一起传递。然后Disruptor将在每个事件上传递一个指向你的状态的可变引用。例如:
use std::{cell::RefCell, rc::Rc}; use disruptor::*; struct Event { price: f64 } #[derive(Default)] struct State { data: Rc<RefCell<i32>> } fn main() { let factory = || { Event { price: 0.0 }}; let initial_state = || { State::default() }; // 用于处理事件*和*状态的闭包。 let processor = |s: &mut State, e: &Event, _: Sequence, _: bool| { // 修改你的自定义状态: *s.data.borrow_mut() += 1; }; let size = 64; let mut producer = disruptor::build_single_producer(size, factory, BusySpin) .handle_events_and_state_with(processor, initial_state) .build(); for i in 0..10 { producer.publish(|e| { e.price = i as f64; }); } }
该库中的一切都是关于低延迟的,这极大地影响了该库中的所有选择。 例如,你不能分配一个事件并将其移动到环形缓冲区中。相反,事件在启动时就被分配,以确保它们在内存中共同定位,从而提高缓存一致性。 然而,你仍然可以在堆上分配一个结构体,并将其所有权移动到环形缓冲区上的事件字段中。 只要你意识到这可能会增加延迟,因为结构体是由一个线程分配而由另一个线程释放的。 因此,在分配器中会发生同步。
也没有使用动态分发 - 一切都是单态的。
这个库需要使用Unsafe来实现低延迟。 虽然不能保证没有错误,但已经使用了以下方法来消除错误:
verification/文件夹)。SPSC和MPSC Disruptor变体已经进行了基准测试,并与Crossbeam进行了比较。请参见benches/spsc.rs和benches/mpsc.rs文件中的代码。
以下是在 2016 年的 MacBook Pro(配备 2.6 GHz 四核 Intel Core i7 处理器)上运行 SPSC 基准测试的结果。在现代 Intel Xeon 处理器上,这些数字应该会更好。此外,在 Mac 上无法隔离核心并固定线程,这本可以产生更稳定的结果。这是未来的工作。
如果您有任何改进基准测试的建议,请随时提出问题。
为了提供一个相对真实的基准测试,不仅考虑了不同大小的突发,还考虑了突发之间的不同暂停时间:0 毫秒、1 毫秒和 10 毫秒。
以下延迟是每个元素的平均延迟,置信区间为 95%(标准 criterion 设置)。捕获所有延迟并计算各种百分位数(特别是最大延迟)是未来的工作。然而,我预计下面的测量结果能代表您在实际应用中可以达到的性能。
延迟:
| 突发大小 | Crossbeam | Disruptor | 改进 |
|---|---|---|---|
| 1 | 65 ns | 32 ns | 51% |
| 10 | 68 ns | 9 ns | 87% |
| 100 | 29 ns | 8 ns | 72% |
吞吐量:
| 突发大小 | Crossbeam | Disruptor | 改进 |
|---|---|---|---|
| 1 | 15.2M / s | 31.7M / s | 109% |
| 10 | 14.5M / s | 117.3M / s | 709% |
| 100 | 34.3M / s | 119.7M / s | 249% |
延迟:
| 突发大小 | Crossbeam | Disruptor | 改进 |
|---|---|---|---|
| 1 | 63 ns | 33 ns | 48% |
| 10 | 67 ns | 8 ns | 88% |
| 100 | 30 ns | 9 ns | 70% |
吞吐量:
| 突发大小 | Crossbeam | Disruptor | 改进 |
|---|---|---|---|
| 1 | 15.9M / s | 30.7M / s | 93% |
| 10 | 14.9M / s | 117.7M / s | 690% |
| 100 | 33.8M / s | 105.0M / s | 211% |
延迟:
| 突发大小 | Crossbeam | Disruptor | 改进 |
|---|---|---|---|
| 1 | 51 ns | 32 ns | 37% |
| 10 | 67 ns | 9 ns | 87% |
| 100 | 30 ns | 10 ns | 67% |
吞吐量:
| 突发大小 | Crossbeam | Disruptor | 改进 |
|---|---|---|---|
| 1 | 19.5M / s | 31.6M / s | 62% |
| 10 | 14.9M / s | 114.5M / s | 668% |
| 100 | 33.6M / s | 105.0M / s | 213% |
Disruptor 和 Crossbeam 库之间显然存在差异。然而,这并不是因为 Crossbeam 库不是一个优秀的软件。事实上它很优秀。Disruptor 通过牺牲 CPU 和内存资源来换取更低的延迟和更高的吞吐量,这就是它能够达到这些结果的原因。如基准测试中 10 和 100 个事件的突发所示,Disruptor 在发布事件批次时表现更为出色。
随着突发大小的增加,两个库的性能都有很大提升,但 Disruptor 的性能对突发之间的暂停更具韧性,这也是其设计目标之一。
有多个其他 Rust 项目模仿了 LMAX Disruptor 库:
该库支持的一个关键特性是来自不同线程的多个生产者,而上述库都不支持这一特性(在撰写本文时)。
欢迎您创建拉取请求或提出问题,提出改进建议。
我将全权决定是否接受更改,并将重点关注这些更改是否适合本 crate 的目的和设计。
空白!所有项目都已实现。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频


实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。


选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


最强AI数据分析助手
小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。


像人一样思考的AI智能体
imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。