
开源语言模型Dolphin Mistral的GGUF量化版本
Dolphin-2.0-mistral-7B的GGUF格式模型提供多个量化版本,从2比特到8比特不等。模型支持CPU和GPU推理,可在llama.cpp等框架上运行。采用ChatML提示模板格式,适用于文本生成和对话任务。项目提供完整使用文档,支持多种部署方式。
Dolphin-2.0-Mistral-7B-GGUF是一个基于Mistral-7B模型量化优化的大语言模型项目。该项目由Eric Hartford创建并由TheBloke进行GGUF格式的量化转换,旨在让用户能够更便捷地在本地部署和使用大语言模型。
该模型可以应用于以下场景:
该项目支持多种使用方式:
项目提供多个量化版本供选择:
根据选择的模型版本不同,最小需要5.58GB到10.20GB的系统内存。如果使用GPU加速,部分内存负载可以转移到显存中,从而减少对系统内存的要求。