轻量级指令语言模型的高 效实现
SmolLM-135M-Instruct是一个1.35亿参数的轻量级指令语言模型。经过高质量教育数据训练和公开数据集微调后,模型具备基础知识问答、创意写作和Python编程能力。支持MLC、GGUF等多种本地部署方案,可通过Transformers框架调用。v0.2版本进一步优化了对话质量和任务完成能力。
SmolLM-135M-Instruct是一个小型但功能强大的语言模型,它是SmolLM系列模型中的一员。这个系列包括三种不同规模的模型:135M、360M和1.7B参数。SmolLM-135M-Instruct作为其中参数量最小的模型,展现出了惊人的能力和效率。
SmolLM系列模型的训练基于精心策划的SmolLM-Corpus数据集,该数据集包含高质量的教育和合成数据,专门用于训练语言模型。SmolLM-135M-Instruct是在基础模型的基础上,通过在公开可用的数据集上进行微调而得到的。
在v0.2版本中,开发团队对模型进行了显著改进。他们采用了更适合小型模型的微调数据集组合,包括:
这次更新使得模型在保持话题连贯性和对标准提示(如问候和关于AI助手角色的问题)的回应能力上有了显著提升。
SmolLM-135M-Instruct可以通过多种方式使用:
本地应用:提供了优化的MLC、GGUF和Transformers.js格式实现,以及快速的浏览器内演示。
Transformers库:用户可以使用Python的Transformers库轻松加载和使用模型。
TRL聊天界面:通过TRL CLI,用户可以在终端中与模型进行交互。