WebCodecs API 提供了对媒体编解码器的低级访问,但没有提供将编码后的媒体打包(复用)成可播放文件的方法。本项目用纯 TypeScript 实现了一个 MP4 复用器,具有高质量、快速和体积小的特点,支持视频和音频,以及各种内部布局,如快速启动或分片 MP4。
**注意:**如果你想创建 WebM 文件,请查看 webm-muxer,它是 mp4-muxer 的姐妹库。
如果你觉得这个库有用并希望支持它,请考虑捐赠 ❤️
以下是该库常见用法的示例:
import { Muxer, ArrayBufferTarget } from 'mp4-muxer'; let muxer = new Muxer({ target: new ArrayBufferTarget(), video: { codec: 'avc', width: 1280, height: 720 }, fastStart: 'in-memory' }); let videoEncoder = new VideoEncoder({ output: (chunk, meta) => muxer.addVideoChunk(chunk, meta), error: e => console.error(e) }); videoEncoder.configure({ codec: 'avc1.42001f', width: 1280, height: 720, bitrate: 1e6 }); /* 编码一些帧... */ await videoEncoder.flush(); muxer.finalize(); let { buffer } = muxer.target; // buffer 包含最终的 MP4 文件
在 webm-muxer 因其易用性和与 WebCodecs API 的集成而获得关注后,创建了这个库,以便现在也能创建 MP4 文件,同时保持相同的开发体验。虽然 WebM 是一种更现代的格式,但 MP4 是一个既定标准,在更多设备上得到支持。
使用 NPM,只需安装这个包:
npm install mp4-muxer
你可以像这样导入所有导出的类:
import * as Mp4Muxer from 'mp4-muxer'; // 或者,使用 CommonJS: const Mp4Muxer = require('mp4-muxer');
或者,你可以简单地在 HTML 中包含该库作为脚本,这将向全局对象添加一个 Mp4Muxer
对象,包含所有导出的类,如下所示:
<script src="build/mp4-muxer.js"></script>
对于每个你想创建的 MP4 文件,像这样创建一个 Muxer
实例:
import { Muxer } from 'mp4-muxer'; let muxer = new Muxer(options);
可用选项由以下接口定义:
interface MuxerOptions { target: | ArrayBufferTarget | StreamTarget | FileSystemWritableFileStreamTarget, video?: { codec: 'avc' | 'hevc' | 'vp9' | 'av1', width: number, height: number, // 向文件添加旋转元数据 rotation?: 0 | 90 | 180 | 270 | TransformationMatrix }, audio?: { codec: 'aac' | 'opus', numberOfChannels: number, sampleRate: number }, fastStart: | false | 'in-memory' | 'fragmented' | { expectedVideoChunks?: number, expectedAudioChunks?: number } firstTimestampBehavior?: 'strict' | 'offset' | 'cross-track-offset' }
该库目前支持的编解码器包括视频的 AVC/H.264、HEVC/H.265、VP9 和 AV1,以及音频的 AAC 和 Opus。
target
(必需)此选项指定复用器创建的数据将被写入的位置。选项包括:
ArrayBufferTarget
:文件数据将被写入一个大的缓冲区,然后存储在目标中。
import { Muxer, ArrayBufferTarget } from 'mp4-muxer'; let muxer = new Muxer({ target: new ArrayBufferTarget(), fastStart: 'in-memory', // ... }); // ... muxer.finalize(); let { buffer } = muxer.target;
StreamTarget
:此目标定义了在有新数据可用时将被调用的回调 - 如果你想流式传输数据,例如将其传输到其他地方,这很有用。构造函数具有以下签名:
constructor(options: { onData?: (data: Uint8Array, position: number) => void, chunked?: boolean, chunkSize?: number });
onData
为每个新的可用数据块调用。position
参数指定数据必须写入的字节偏移量。由于复用器写入的数据并不总是连续的,请确保遵守此参数。
当使用 chunked: true
时,复用器创建的数据将首先累积,只有在达到足够大小时才会写出。这有助于减少总写入次数,但代价是增加延迟。它使用默认的 16 MiB 块大小,可以通过 手动设置 chunkSize
为所需的字节长度来覆盖。
如果你想将此目标用于实时流媒体,即在复用完成之前进行播放,你还需要设置 fastStart: 'fragmented'
。
使用示例:
import { Muxer, StreamTarget } from 'mp4-muxer'; let muxer = new Muxer({ target: new StreamTarget({ onData: (data, position) => { /* 处理数据 */ } }), fastStart: false, // ... });
FileSystemWritableFileStreamTarget
:这本质上是一个分块 StreamTarget
的包装器,旨在简化该库与文件系统访问 API 的使用。将文件直接写入磁盘(在创建过程中)带来许多好处,例如创建远大于可用 RAM 的文件。
你可以选择覆盖默认的 16 MiB chunkSize
。
constructor( stream: FileSystemWritableFileStream, options?: { chunkSize?: number } );
使用示例:
import { Muxer, FileSystemWritableFileStreamTarget } from 'mp4-muxer'; let fileHandle = await window.showSaveFilePicker({ suggestedName: `video.mp4`, types: [{ description: 'Video File', accept: { 'video/mp4': ['.mp4'] } }], }); let fileStream = await fileHandle.createWritable(); let muxer = new Muxer({ target: new FileSystemWritableFileStreamTarget(fileStream), fastStart: false, // ... }); // ... muxer.finalize(); await fileStream.close(); // 确保关闭流
fastStart
(必需)默认情况下,MP4 元数据(轨道信息、采样时间等)存储在文件末尾 - 这使得文件写入更快、更容易。然而,将这些元数据放在文件的_开头_(称为"快速启动")提供了某些好处:文件更容易通过网络流式传输而无需范围请求,像 YouTube 这样的网站可以在上传时就开始处理视频。通过将 fastStart
设置为以下选项之一,该库提供了对元数据放置的完全控制:
false
:禁用快速启动,将所有元数据放在文件末尾。这个选项是最快的,使用最少的内存。建议用于直接流式传输到磁盘的大型、无界文件。
'in-memory'
:通过将所有媒体块保存在内存中直到文件完成,生成具有快速启动功能的文件。这个选项以更昂贵的完成步骤和更高的内存需求为代价,产生最紧凑的输出。当使用 ArrayBufferTarget
时,这是首选选项,因为它将产生更高质量的输出,而不会改变内存占用。
'fragmented'
:生成一个_分片 MP4 (fMP4)_ 文件,通过将采样元数据分组到"片段"(短媒体段)中,均匀地将其放置在整个文件中,同时将通用元数据放在文件开头。分片文件非常适合流式传输,因为它们针对随机访问进行了优化,几乎不需要寻找。此外,无论文件变得多大,它们的创建都保持轻量级,因为它们不需要长时间将媒体保存在内存中。虽然分片文件不像常规 MP4 文件那样广泛支持,但这个选项提供了强大的好处,几乎没有什么缺点。更多详情见此。
object
:通过在复用开始时为元数据保留空间,生成具有快速启动功能的文件。为了知道需要保留多少字节才能安全,你需要提供以下数据:
{ expectedVideoChunks?: number, expectedAudioChunks?: number }
注意,如果你有视频轨道,expectedVideoChunks
属性是_必需的_ - 音频也是如此。设置此选项后,你不能复用比指定数量更多的块(但少于指定数量是可以的)。
这个选项比 'in-memory'
更快,不使用额外内存,但会产生稍大的输出,当你想将文件流式传输到磁盘同时保留快速启动功能时,这个选项很有用。
firstTimestampBehavior
(可选)指定如何处理每个轨道的第一个块具有非零时间戳的情况。在默认的严格模式下,时间戳必须从 0 开始以确保正确播放。然而,当直接将 MediaTrackStream 的视频帧或音频数据传输到编码器然后到复用器时,时间戳通常相对于文档的年龄或计算机的时钟,这通常不是我们想要的。必须明确设置这些时间戳的处理:
'offset'
将每个轨道的时间戳偏移该轨道第一个块的时间戳。这样,它从 0 开始。'cross-track-offset'
将每个轨道的时间戳偏移_所有轨道第一个块时间戳的最小值_。这类似于 'offset'
,但应在所有轨道使用相同时钟时使用。然后,设置好 VideoEncoder 和 AudioEncoder 后,使用以下方法将编码的块发送到复用器:
addVideoChunk( chunk: EncodedVideoChunk, meta?: EncodedVideoChunkMetadata, timestamp?: number, compositionTimeOffset?: number ): void; addAudioChunk( chunk: EncodedAudioChunk, meta?: EncodedAudioChunkMetadata, timestamp?: number ): void;
这两个方法都接受一个可选的第三个参数 timestamp
(微秒),如果指定,它将覆盖传入块的 timestamp
属性。
元数据来自传递给 VideoEncoder 或 AudioEncoder 构造函数的 output
回调的第二个参数,需要传递给复用器,如下所示:
let videoEncoder = new VideoEncoder({ output: (chunk, meta) => muxer.addVideoChunk(chunk, meta), error: e => console.error(e) }); videoEncoder.configure(/* ... */);
可选字段 compositionTimeOffset
可以在数据块的解码时间不等于其呈现时间时使用;这种情况出现在存在 B帧 时。使用 WebCodecs API 进行编码时不会出现 B 帧。解码时间通过从 timestamp
中减去 compositionTimeOffset
来计算,这意味着 timestamp
决定了呈现时间。
如果您从 WebCodecs API 以外的来源获得编码媒体数据,可以使用以下方法将原始数据直接发送到复用器:
addVideoChunkRaw( data: Uint8Array, type: 'key' | 'delta', timestamp: number, // 以微秒为单位 duration: number, // 以微秒为单位 meta?: EncodedVideoChunkMetadata, compositionTimeOffset?: number // 以微秒为单位 ): void; addAudioChunkRaw( data: Uint8Array, type: 'key' | 'delta', timestamp: number, // 以微秒为单位 duration: number, // 以微秒为单位 meta?: EncodedAudioChunkMetadata ): void;
编码完成且所有编码器都已刷新后,在 Muxer
实例上调用 finalize
来完成 MP4 文件:
muxer.finalize();
使用 ArrayBufferTarget 时,最终的缓冲区可通过以下方式访问:
let { buffer } = muxer.target;
使用 FileSystemWritableFileStreamTarget 时,确保在调用 finalize
后关闭流:
await fileStream.close();
MP4 文件支持可变帧率,但观察到一些 播放器(如 QuickTime)在时间戳不规则时表现不佳。因此,尽可能尝试使用固定帧率。
通过将媒体和相关元数据分解成小片段,fMP4 文件优化了随机访问,非常适合流媒体传输,同时即使对于长文件也能保持低成本写入。但是,您应该记住以下几点:
媒体数据块缓冲: 在复用包含视频和音频轨道的文件时,复用器需要等待两种媒体的数据块来完成任何给定的片段。换句话说,如果另一种媒体尚未编码到该时间戳的数据块,它必须缓冲一种媒体的数据块。例如,如果您先编码所有视频帧,然后再编码音频,复用器将不得不将所有这些视频帧保存在内存中,直到音频数据块开始输入。如果您的视频很长,这可能会导致内存耗尽。当只有一个媒体轨道时,不会出现这个问题。因此,在复用多媒体文件时,请确保文件大小有一定限制,或者数据块以某种交错方式编码(如实时媒体的情况)。这将使内存使用保持在恒定的低水平。
视频关键帧频率: 为了能够在不知道前面片段的情况下播放某个片段,每个轨道在片段中的第一个样本必须是关键帧。然而,这意味着复用器需要等待视频关键帧来开始一个新的片段。如果这些关键帧太不频繁,片段会变得太大,影响随机访问。因此,每 5-10 秒,您应该强制生成一个视频关键帧,如下所示:
videoEncoder.encode(frame, { keyFrame: true });
MP4 文件基于 ISO 基本媒体格式,该格式将文件结构化为盒子(或原子)的层次结构。用于实现此库的标准包括 ISO/IEC 14496-1、ISO/IEC 14496-12 和 ISO/IEC 14496-14。此外,QuickTime MP4 规范 也是一个非常有用的资源。
对于开发,克隆此存储库,使用 npm install
安装所有内容,然后运行 npm run watch
将代码打包到 build
目录中。运行 npm run check
以运行 TypeScript 类型检查器,运行 npm run lint
以运行 ESLint。
基于 UI-TARS 视觉语言模型的桌面应用,可通过自然语言控制计算机进行多模态操作。
UI-TARS-desktop 是一款功能强大的桌面应用,基于 UI-TARS(视觉语言模型)构建。它具备自然语言控制、截图与视觉识别、精确的鼠标键盘控制等功能,支持跨平台使用(Windows/MacOS),能提供实时反馈和状态显示,且数据完全本地处理,保障隐私安全。该应用集成了多种大语言模型和搜索方式,还可进行文件系统操作。适用于需要智能交互和自动化任务的场景,如信息检索、文件管理等。其提供了详细的文档,包括快速启动、部署、贡献指南和 SDK 使用说明等,方便开发者使用和扩展。
开源且先进的大规模视频生成模型项目
Wan2.1 是一个开源且先进的大规模视频生成模型项目,支持文本到图像、文本到视频、图像到视频等多种生成任务。它具备丰富的配置选项,可调整分辨率、扩散步数等参数,还能对提示词进行增强。使用了多种先进技术和工具,在视频和图像生成领域具有广泛应用前景,适合研究人员和开发者使用。
全流程 AI 驱动的数据可视化工具,助力用户轻松创作高颜值图表
爱图表(aitubiao.com)就是AI图表,是由镝数科技推出的一款创新型智能数据可视化平台,专注于为用户提供便捷的图表生成、数据分析和报告撰写服务。爱图表是中国首个在图表场景接入DeepSeek的产品。通过接入前沿的DeepSeek系列AI模型,爱图表结合强大的数据处理能力与智能化功能,致力于帮助职场人士高效处理和表达数据,提升工作效率和报告质量。
一款强大的视觉语言模型,支持图像和视频输入
Qwen2.5-VL 是一款强大的视觉语言模型,支持图像和视频输入,可用于多种场景,如商品特点总结、图像文字识别等。项目提供了 OpenAI API 服务、Web UI 示例等部署方式,还包含了视觉处理工具,有助于开发者快速集成和使用,提升工作效率。
HunyuanVideo 是一个可基于文本生成高质量图像和视频的项目。
HunyuanVideo 是一个专注于文本到图像及视频生成的项目。它具备强大的视频生成能力,支持多种分辨率和视频长度选择,能根据用户输入的文本生成逼真的图像和视频。使用先进的技术架构和算法,可灵活调整生成参数,满足不同场景的需求,是文本生成图像视频领域的优质工具。
一个基于 Gradio 构建的 WebUI,支持与浏览器智能体进行便捷交互。
WebUI for Browser Use 是一个强大的项目,它集成了多种大型语言模 型,支持自定义浏览器使用,具备持久化浏览器会话等功能。用户可以通过简洁友好的界面轻松控制浏览器智能体完成各类任务,无论是数据提取、网页导航还是表单填写等操作都能高效实现,有利于提高工作效率和获取信息的便捷性。该项目适合开发者、研究人员以及需要自动化浏览器操作的人群使用,在 SEO 优化方面,其关键词涵盖浏览器使用、WebUI、大型语言模型集成等,有助于提高网页在搜索引擎中的曝光度。
基于 ESP32 的小智 AI 开发项目,支持多种网络连接与协议,实现语音交互等功能。
xiaozhi-esp32 是一个极具创新性的基于 ESP32 的开发项目,专注于人工智能语音交互领域。项目涵盖了丰富的功能,如网络连接、OTA 升级、设备激活等,同时支持多种语言。无论是开发爱好者还 是专业开发者,都能借助该项目快速搭建起高效的 AI 语音交互系统,为智能设备开发提供强大助力。
一个用于 OCR 的项目,支持多种模型和服务器进行 PDF 到 Markdown 的转换,并提供测试和报告功能。
olmocr 是一个专注于光学字符识别(OCR)的 Python 项目,由 Allen Institute for Artificial Intelligence 开发。它支持多种模型和服务器,如 vllm、sglang、OpenAI 等,可将 PDF 文件的页面转换为 Markdown 格式。项目还提供了测试框架和 HTML 报告生成功能,方便用户对 OCR 结果进行评估和分析。适用于科研、文档处理等领域,有助于提高工作效率和准确性。
飞书多维表格 ×DeepSeek R1 满血版
飞书多维表格联合 DeepSeek R1 模型,提供 AI 自动化解决方案,支持批量写作、数据分析、跨模态处理等功能,适用于电商、短视频、影视创作等场景,提升企业生产力与创作效率。关键词:飞书多维表格、DeepSeek R1、AI 自动化、批量处理、企业协同工具。
高质量语音生成模型
CSM 是一个开源的语音生成项目,它提供了一个基于 Llama-3.2-1B 和 CSM-1B 的语音生成模型。该项目支持多语言,可生成多种声音,适用于研究和教育场景。通过使用 CSM,用户可以方便地进行语音合成,同时项目还提供了水印功能,确保生成音频的可追溯性和透明度。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号