Aurora是一个基于Mixtral-8x7B的中文MoE(mixture of experts)模型,通过指令微调激活了模型的中文开放域对话能力。该项目由澳门理工大学应用科学学院团队开发,旨在增强Mixtral-8x7B稀疏混合专家模型的中文对话能力。
基础模型 Mixtral-8x7B-Instruct-v0.1:
Aurora LoRA权重:
Aurora-Plus (推荐):
git clone https://github.com/WangRongsheng/Aurora.git cd Aurora pip install -r requirements.txt
下载模型权重(基础模型和LoRA权重)
运行推理:
CUDA_VISIBLE_DEVICES=0 python src/web_demo.py \ --model_name_or_path ./Mixtral-8x7B-Instruct-v0.1 \ --checkpoint_dir Aurora \ --finetuning_type lora \ --quantization_bit 4 \ --template mistral
CUDA_VISIBLE_DEVICES=0 python src/cli_demo.py \ --model_name_or_path ./Mixtral-8x7B-Instruct-v0.1 \ --checkpoint_dir Aurora \ --finetuning_type lora \ --quantization_bit 4 \ --template mistral
Aurora在多个中文基准测试上表现优异:
在医学评测基准CMB上,Aurora得分29.87,远超Mistral-7B的22.26分。
Aurora采用指令微调的方式,使用了三个中文指令数据集。训练代码如下:
CUDA_VISIBLE_DEVICES=5 python src/train_bash.py \ --stage sft \ --model_name_or_path ./Mixtral-8x7B-Instruct-v0.1 \ --do_train \ --dataset alpaca_zh,alpaca_gpt4_zh,sharegpt \ --finetuning_type lora \ --quantization_bit 4 \ --output_dir output/ \ --per_device_train_batch_size 2 \ --learning_rate 5e-5 \ --num_train_epochs 3.0 \ --fp16 \ --template mistral
Aurora是一个强大的中文大语言模型,通过指令微调显著提升了Mixtral-8x7B的中文对话能力。本文汇总了Aurora的相关学习资料,希望能帮助读者快速入门和使用这个优秀的开源项目。欢迎大家尝试使用Aurora,并为项目贡献自己的力量!
AI数字人视频创作平台
Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高 质量的专业视频。
一站式AI创作平台
提供 AI 驱动的图片、视频生成及数字人等功能,助力创意创作
AI办公助手,复杂任务高效处理
AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!
AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI小说写作 助手,一站式润色、改写、扩写
蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。