
轻量级开源语言模型的多版本量化实现
基于GGUF格式量化,提供从Q2到F16共16种量化版本。模型采用层级缩放策略优化参数分配,基于1.8万亿token数据训练,支持指令微调,可在3.14GB至7.72GB内存环境下运行。
OpenELM-3B-Instruct-GGUF是由Apple公司开发的语言模型OpenELM系列的一个重要成员,该项目由SanctumAI进行量化处理。这是一个开源的高效语言模型,采用了创新的层级缩放策略来优化transformer模型中每一层的参数分配。
这个项目具有以下突出特点:
该项目提供了多种不同量化方法的版本:
不同版本对硬件要求各异:
模型使用Zephyr预设配置,采用特定的提示模板格式:
<|system|>
{system_prompt}</s>
<|user|>
{prompt}</s>
<|assistant|>
这个项目为自然语言处理领域提供了:
用户在使用该模型时需要注意: