通过指令调优激活 Mixtral-8x7B 稀疏 专家混合体的中文聊天功能
Aurora项目通过整合三大中文数据集,提升了Mixtral-8x7B稀疏专家模型的中文对话能力。通过数据预处理和指令微调,该模型在C-Eval、MMLU和CMMLU基准测试中表现出色。这项研究首次在稀疏专家模型上应用指令微调,提升了模型的架构能力,特别是在零样本任务中表现卓越。
Aurora 项目旨在通过指令微调技术,激活 Mixtral-8x7B 稀疏专家模型(Sparse Mixture-of-Experts)的中文对话能力。研究人员系统地调查、预处理并整合了三个中文指令数据集,旨在提升这种混合专家模型的中文会话能力。通过对精心处理的数据集进行指令微调,成功构建了名为“Aurora”的 Mixtral-8x7B 稀疏专家模型。为了评估 Aurora 的性能,研究团队采用了三个公认的基准测试:C-Eval、MMLU 和 CMMLU。实验验证了指令微调应用于稀疏专家混合模型的有效性,这标志着在提升这种模型架构能力方面的重大突破。
Aurora 的性能通过多个基准测试进行评估。以下是 Aurora 在不同测试中的表现:
C-Eval、MMLU 和 CMMLU 测试
BLEU 和 ROUGE 分数
医学领域测试
Aurora 项目为用户提供了多种快速使用模型的方式:
以上使用方式都支持在单个 GPU 上进行,并支持 4-bit 的量化处理以适应有限的 硬件资源。
Aurora 项目不仅提供了使用预训练模型的方式,也开放了训练自己的 Mixtral-8x7B 模型的能力:
Aurora 项目主要由澳门理工大学应用科学学院完成,AWS 服务器提供了计算资源支持。微调框架选择了 LLaMA-Factory,感谢 Mistral AI 对技术的贡献和推动。
如果您在研究中使用了 Aurora 项目,请按照如下 BibTeX 格式引用:
@misc{wang2023auroraactivating, title={Aurora:Activating Chinese chat capability for Mixtral-8x7B sparse Mixture-of-Experts through Instruction-Tuning}, author={Rongsheng Wang and Haoming Chen and Ruizhe Zhou and Yaofei Duan and Kunyan Cai and Han Ma and Jiaxi Cui and Jian Li and Patrick Cheong-Iao Pang and Yapeng Wang and Tao Tan}, year={2023}, eprint={2312.14557}, archivePrefix={arXiv}, primaryClass={cs.CL} }
Aurora 项目的使用请遵循 Apache 2.0 License。