
多任务智能的高性能开源语言模型
Llama-3.1-Storm-8B是基于Llama-3.1-8B-Instruct改进的开源语言模型。通过自主数据筛选、定向微调和模型合并,它在10个基准测试中显著超越原始模型,包括指令遵循、知识问答、推理能力、真实性和函数调用。GPQA提升7.21%,TruthfulQA提升9%,函数调用准确率提升7.92%。支持Transformers、vLLM和Ollama等多种部署方式,为AI开发者提供高性能的通用型语言模型选择。
Llama-3.1-Storm-8B是一个基于Llama-3.1-8B-Instruct模型进行改进的大语言模型项目。该项目由Ashvini Kumar Jindal、Pawan Kumar Rajpoot、Ankur Parikh和Akshita Sukhlecha共同开发。Llama-3.1-Storm-8B在多个基准测试中显著优于Meta AI的Llama-3.1-8B-Instruct模型和Hermes-3-Llama-3.1-8B模型。
Llama-3.1-Storm-8B的开发主要包含三个关键步骤:
自我数据筛选:从约280万个开源样本中选择了约100万个高质量样本。筛选标准主要关注教育价值和难度水平,使用相同的SLM进行注释而不是使用更大的模型。
目标性微调:使用Spectrum方法对Llama-3.1-8B-Instruct模型进行目标性微调。这种方法通过根据信噪比有选择地定位层模块来加速训练,并冻结其余模块。在这个项目中,50%的层被冻结。
模型合并:使用SLERP方法将微调后的模型与Llama-Spark模型进行合并。这种合并方法产生了一个混合模型,其特征从两个父模型平滑插值而来,确保结果模型捕捉了两个父模型的精华。
Llama-3.1-Storm-8B在多个领域展现出了显著的性能提升:
这些改进使Llama-3.1-Storm-8B成为一个强大的通用模型,适用于多种应用场景。
Llama-3.1-Storm-8B提供了多个版本以满足不同需求:
开发者可以通过多种方式使用Llama-3.1-Storm-8B模型:
此外,Llama-3.1-Storm-8B还具有出色的函数调用能力,可以通过特定的系统提示来使用。
虽然Llama-3.1-Storm-8B没有经过显式的模型对齐过程,但它可能保留了从Meta-Llama-3.1-8B-Instruct模型继承的一些对齐属性。
开发团队致力于开发高效的通用大语言模型,正在寻求计算资源和创新合作者来推动这一计划向前发展。
总的来说,Llama-3.1-Storm-8B项目为开源社区提供了一个强大的、多功能的大语言模型,有望在各种应用场景中发挥重要作用。