在这个仓库中,我们调研了对语音/音频大型语言模型有重要贡献的三个关键领域:(1) 表征学习,(2) 神经编解码器,以及 (3) 语言模型。
1.⚡ 语音表征模型: 这些模型专注于学习结构化的语音表征,然后可以将其量化为离散的语音标记,通常称为语义标记。
2.⚡ 语音神经编解码器模型: 这些模型旨在学习语音和音频的离散标记,通常称为声学标记,同时保持重建能力和低比特率。
3.⚡ 语音大型语言模型: 这些模型在语音和声学标记之上以语言建模的方式进行训练。它们在语音理解和语音生成任务中展现出高水平的能力。
日期 | 模型名称 | 论文标题 | 链接 |
---|---|---|---|
2024-04 | WavLLM | WavLLM:迈向稳健和自适应的语音大型语言模型 | 论文 |
2024-02 | SLAM-ASR | 一种简单有效的具有强大ASR能力的LLM方法 | 论文 |
2024-02 | AnyGPT | AnyGPT:基于离散序列建模的统一多模态LLM | 论文 |
2024-02 | SpiRit-LM | SpiRit-LM:交错的口语和书面语言模型 | 论文 |
2024-02 | BAT | BAT:学习用大型语言模型推理空间声音 | 论文 |
2024-02 | Audio Flamingo | Audio Flamingo:具有少样本学习和对话能力的新型音频语言模型 | 论文 |
2024-02 | 文本描述到语音 | 使用合成注释引导高保真文本到语音的自然语言 | 论文 |
2024-02 | GenTranslate | GenTranslate:大型语言模型作为生成式多语言语音和机器翻译器 | 论文 |
2024-02 | Base-TTS | BASE TTS:在10万小时数据上构建十亿参数文本到语音模型的经验教训 | 论文 |
2024-02 | -- | 为时不晚:将声学信息融入大型语言模型用于自动语音识别 | 论文 |
2024-01 | -- | 大型语言模型是抗噪声语音识别的高效 学习者 | 论文 |
2023-12 | Seamless | Seamless:多语言表达性和流式语音翻译 | 论文 |
2023-11 | Qwen-Audio | Qwen-Audio:通过统一的大规模音频-语言模型推进通用音频理解 | 论文 |
2023-10 | LauraGPT | LauraGPT:用GPT聆听、关注、理解和重新生成音频 | 论文 |
2023-10 | SALMONN | SALMONN:为大型语言模型实现通用听觉能力 | 论文 |
2023-10 | UniAudio | UniAudio:面向通用音频生成的音频基础模型 | 论文 |
2023-10 | Whispering LLaMA | Whispering LLaMA:用于语音识别的跨模态生成错误纠正框架 | 论文 |
2023-09 | VoxtLM | Voxtlm:统一解码器模型以整合语音识别/合成和语音/文本延续任务 | 论文 |
2023-09 | LTU-AS | 联合音频和语音理解 | 论文 |
2023-09 | SLM | SLM:弥合语音和文本基础模型之间的细微差距 | 论文 |
2023-09 | -- | 使用大型语言模型和任务激活提示进行生成式语音识别错误纠正 | 论文 |
2023-08 | SpeechGen | SpeechGen:通过提示释放语音语言模型的生成能力 | 论文 |
2023-08 | SpeechX | SpeechX:神经编解码语言模型作为多功能语音转换器 | 论文 |
2023-08 | LLaSM | 大型语言和语音模型 | 论文 |
2023-08 | SeamlessM4T | 大规模多语言和多模态机器翻译 | 论文 |
2023-07 | Speech-LLaMA | 关于语音到文本和大型语言模型集成的仅解码器架构 | 论文 |
2023-07 | LLM-ASR(临时) | 提示具有语音识别能力的大型语言模型 | 论文 |
2023-06 | AudioPaLM | AudioPaLM:一个能说能听的大型语言模型 | 论文 |
2023-05 | Spectron | 使用频谱图驱动的LLM进行口语问答和语音延续 | 论文 |
2023-05 | TWIST | 文本预训练的语音语言模型 | 论文 |
2023-05 | Pengi | Pengi:用于音频任务的音频语言模型 | 论文 |
2023-05 | SoundStorm | 高效并行音频生成 | 论文 |
2023-05 | LTU | 联合音频和语音理解 | 论文 |
2023-05 | SpeechGPT | 赋予大型语言模型内在的跨模态对话能力 | 论文 |
2023-05 | VioLA | 用于语音识别、合成和翻译的统一编解码语言模型 | 论文 |
2023-05 | X-LLM | X-LLM:通过将多模态视为外语来引导先进的大型语言模型 | 论文 |
2023-03 | Google USM | Google USM:将自动语音识别扩展到100多种语言 | 论文 |
2023-03 | VALL-E X | 用你自己的声音说外语:跨语言神经编解码语言建模 | 论文 |
2023-02 | SPEAR-TTS | 说、读和提示:最小监督下的高保真文本到语音 | 论文 |
2023-01 | VALL-E | 神经编解码语言模型是零样本文本到语音合成器 | 论文 |
2022-12 | Whisper | 通过大规模弱监督实现稳健的语音识别 | 论文 |
2022-10 | AudioGen | AudioGen:文本引导的音频生成 | 论文 |
2022-09 | AudioLM | AudioLM:一种音频生成的语言建模方法 | 论文 |
2022-05 | Wav2Seq | Wav2Seq:使用伪语言预训练语音到文本编码器-解码器模型 | 论文 |
2022-04 | Unit mBART | 通过自监督预训练和数据增强增强直接语音到语音翻译 | 论文 |
2022-03 | d-GSLM | 生成式口语对话语言建模 | 论文 |
2021-10 | SLAM | SLAM:通过语音-文本联合预训练实现语音和语言建模的统一编码器 | 论文 |
2021-09 | p-GSLM | 无文本的韵律感知生成式口语语言建模 | 论文 |
2021-02 | GSLM | 从原始音频生成口语语言建模 | 论文 |
日期 | 模型名称 | 论文标题 | 链接 |
---|---|---|---|
2024-01 | EAT | 基于高效音频Transformer的自监督预训练 | 论文 |
2023-10 | MR-HuBERT | 多分辨率HuBERT:基于掩蔽单元预测的多分辨率语音自监督学习 | 论文 |
2023-10 | SpeechFlow | 基于流匹配的语音生成预训练 | 论文 |
2023-09 | WavLabLM | 用于大规模多语言自监督学习的联合预测和去噪 | 论文 |
2023-08 | W2v-BERT 2.0 | 大规模多语言和多模态机器翻译 | 论文 |
2023-07 | Whisper-AT | 噪声鲁棒的自动语音识别器也是强大的通用音频事件标注器 | 论文 |
2023-06 | ATST | 用于片段级和帧级任务的自监督音频教师-学生Transformer | 论文 |
2023-05 | SPIN | 通过说话人不变聚类进行自监督微调以改善内容表示 | 论文 |
2023-05 | DinoSR | 自蒸馏和在线聚类用于自监督语音表示学习 | 论文 |
2023-05 | NFA | 用于解耦句级语音表示的自监督神经因子分析 | 论文 |
2022-12 | Data2vec 2.0 | 用于视觉、语音和语言的高效自监督学习与上下文化目标表示 | 论文 |
2022-12 | BEATs | 基于声学分词器的音频预训练 | 论文 |
2022-11 | MT4SSL | MT4SSL:通过整合多个目标提升自监督语音表示学习 | 论文 |
2022-08 | DINO | 非对比自监督学习句级语音表示 | 论文 |
2022-07 | Audio-MAE | 会倾听的掩蔽自编码器 | 论文 |
2022-04 | MAESTRO | 通过模态匹配实现匹配的语音文本表示 | 论文 |
2022-03 | MAE-AST | 掩蔽自编码音频谱图Transformer | 论文 |
2022-03 | LightHuBERT | 轻量化且可配置的语音表示学习与一次性隐藏单元BERT | 论文 |
2022-02 | Data2vec | 语音、视觉和语言自监督学习的通用框架 | 论文 |
2021-10 | WavLM | WavLM:用于全栈语音处理的大规模自监督预训练 | 论文 |
2021-08 | W2v-BERT | 结合对比学习和掩蔽语言建模进行自监督语音预训练 | 论文 |
2021-07 | mHuBERT | 基于离散单元的直接语音到语音翻译 | 论文 |
2021-06 | HuBERT | 通过隐藏单元的掩蔽预测进行自监督语音表示学习 | 论文 |
2021-03 | BYOL-A | 用于通用音频表示的自监督学习 | 论文 |
2020-12 | DeCoAR2.0 | DeCoAR 2.0:基于向量量化的深度上下文化声学表示 | 论文 |
2020-07 | TERA | TERA:用于语音的Transformer编码器表示的自监督学习 | 论文 |
2020-06 | Wav2vec2.0 | wav2vec 2.0:语音表示自监督学习框架 | 论文 |
2019-10 | APC | 基于自回归预测编码的语音生成预训练 | 论文 |
2018-07 | CPC | 基于对比预测编码的表示学习 | 论文 |
日期 | 模型名称 | 论文标题 | 链接 |
---|---|---|---|
2024-05 | HILCodec | HILCodec:高保真度和轻量级神经音频编解码器 | 论文 |
2024-04 | SemantiCodec | SemantiCodec:用于通用声音的超低比特率语义音频编解码器 | 论文 |
2024-03 | FACodec | NaturalSpeech 3:使用因子化编解码器和扩散模型进行零样本语音合成 | 论文 |
2024-02 | Language-Codec | Language-Codec:缩小离散编解码器表示与语音语言模型之间的差距 | 论文 |
2024-01 | ScoreDec | ScoreDec:一种保留相位的高保真音频编解码器,配备广义基于分数的扩散后处理滤波器 | 论文 |
2023-11 | HierSpeech++ | HierSpeech++:通过分层变分推断弥合语音语义和声学表示之间的差距,用于零样本语音合成 | 论文 |
2023-09 | FunCodec | FunCodec:一个基础、可复现且可集成的开源神经语音编解码器工具包 | 论文 |
2023-08 | SpeechTokenizer | Speechtokenizer:用于语音大型语言模型的统一语音分词器 | 论文 |
2023-06 | Descript-audio-codec | 使用改进的RVQGAN进行高保真音频压缩 | 论文 |
2023-05 | AudioDec | Audiodec:一个开源流式高保真神经音频编解码器 | 论文 |
2023-05 | HiFi-Codec | Hifi-codec:用于高保真音频编解码的群体残差向量量化 | 论文 |
2023-03 | LMCodec | LMCodec:使用因果Transformer模型的低比特率语音编解码器 | 论文 |
2022-10 | EnCodec | 高保真神经音频压缩 | 论文 |
2021-07 | SoundStream | SoundStream:端到端神经音频编解码器 | 论文 |
我(张凯维)将在ICASSP 2024教程中发表演讲,题目为语音和语言基础模型的参数高效和提示学习。主题将涵盖当今的语音/音频大型语言模型。
教程讲者:
首尔见!
:trident: 更新:教程已在ICASSP 2024成功举行。感谢所有与会者的参与。我的演讲幻灯片可在https://kwchang.org/talks/获取。如有任何讨论,欢迎随时与我联系。
如果您觉得这个仓库有用,请考虑引用以下论文。
@article{wu2024codec,
标题={Codec-SUPERB:声音编解码器模型的深入分析},
作者={吴海滨 和 钟浩林 和 林奕政 和 吴元奎 和 陈宣君 和 白宇骐 和 王秀璇 和 张凯为 和 刘亚历山大 H 和 李宏毅},
期刊={arXiv预印本 arXiv:2402.13071},
年份={2024}
}
@article{wu2024towards,
标题={迈向音频语言建模-综述},
作者={吴海滨 和 陈宣君 和 林奕政 和 张凯为 和 钟浩林 和 刘亚历山大 H 和 李宏毅},
期刊={arXiv预印本 arXiv:2402.13236},
年份={2024}
}
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市 场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。
openai-agents-python 是 OpenAI 推出的一款强大 Python SDK, 它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。
高分辨率纹理 3D 资产生成
Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。
一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。
3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号