phi-2-GGUF

phi-2-GGUF

以多平台兼容性著称的高效GGUF格式模型

探讨2023年8月由llama.cpp团队引入的微软Phi 2项目GGUF格式。页面包含详细的使用指南和应用案例,适合文本生成和推理。Phi 2具备跨平台兼容性和多种量化选项,支持GPU加速,是自然语言处理的良好选择。

Github模型开源项目Phi 2GPU加速下载和运行量化方法模型兼容性Huggingface

项目介绍:phi-2-GGUF

项目背景

phi-2-GGUF项目是微软创建的一种用于文本生成任务的模型,该项目由微软研发团队开发。原始模型名为Phi 2。这种模型采用了一种新格式,称为GGUF,由llama.cpp团队于2023年8月21日引入。GGUF是对GGML格式的替代,旨在提供更好的兼容性和支持。

GGUF格式介绍

GGUF格式是为许多支持模型生成的客户端和图书馆而设计的。以下是一些兼容GGUF格式的工具和接口:

  • llama.cpp:提供CLI和服务器选项,可以在local环境下运行。
  • text-generation-webui:功能丰富的网络用户界面,支持GPU加速。
  • KoboldCpp:具备跨平台GPU加速能力,特别适合故事编写。
  • GPT4All:开源的本地运行GUI,支持Windows、Linux和macOS,具有全GPU加速功能。
  • LM Studio:简易使用的强大本地GUI,支持Windows和macOS(Silicon),具有GPU加速功能。
  • Faraday.dev:适用于Windows和macOS的聊天GUI,支持GPU加速。

此外,使用Python的开发者还可以用到诸如llama-cpp-pythoncandle等库来运行GGUF格式的模型。

模型仓库信息

phi-2存在多种格式和版本供使用,其中包括:

  • GPU推理的GPTQ模型,支持多种量化参数选项。
  • CPU+GPU推理的2、3、4、5、6和8位GGUF模型。
  • 微软原始的未量化fp16模型,采用pytorch格式,用于GPU推理和进一步转换。

量化方法详细解释

在phi-2-GGUF项目中,提供了几种先进的量化方法,包括:

  • GGML_TYPE_Q2_K:使用2.5625位每权重,有较大质量损失。
  • GGML_TYPE_Q3_K:使用3.4375位每权重,适用于需要质量平衡的使用场景。
  • GGML_TYPE_Q4_K:使用4.5位每权重,推荐用于大部分常规用途。
  • GGML_TYPE_Q5_K和Q6_K:分别是5.5和6.5625位每权重,提供更佳质量的量化选项。

下载与运行

用户可以通过多个客户端和库下载phi-2-GGUF模型文件。以下是一些下载建议与命令:

  • 使用text-generation-webui时,可在下载模型页面输入仓库名如TheBloke/phi-2-GGUF,选择相应文件下载。

  • 在命令行使用huggingface-hub库进行快速下载,示例命令如下:

    pip3 install huggingface-hub huggingface-cli download TheBloke/phi-2-GGUF phi-2.Q4_K_M.gguf --local-dir . --local-dir-use-symlinks False

确保下载后使用符合要求的运行环境及配置,这样可以根据需求进行有效的文本生成。

使用实例

llama.cpp中运行

确保您使用的llama.cpp是2023年8月27日以后的版本,以下是示例命令:

./main -ngl 35 -m phi-2.Q4_K_M.gguf --color -c 2048 --temp 0.7 --repeat_penalty 1.1 -n -1 -p "Instruct: {prompt}\nOutput:"

在Python代码中使用

可以采用llama-cpp-python库加载并运行模型,以下是一个简单的Python代码示例:

from llama_cpp import Llama llm = Llama( model_path="./phi-2.Q4_K_M.gguf", # 先下载好模型文件 n_ctx=2048, n_threads=8, n_gpu_layers=35 ) output = llm( "Instruct: {prompt}\nOutput:", max_tokens=512, stop=["</s>"], echo=True )

通过这些操作,用户可以在多种平台和环境下灵活应用phi-2-GGUF模型进行文本生成任务。该项目利用先进的量化技术提供多种质量平衡选项,便于用户选择合适的模型参数和部署方案。

编辑推荐精选

扣子-AI办公

扣子-AI办公

职场AI,就用扣子

AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!

堆友

堆友

多风格AI绘画神器

堆友平台由阿里巴巴设计团队创建,作为一款AI驱动的设计工具,专为设计师提供一站式增长服务。功能覆盖海量3D素材、AI绘画、实时渲染以及专业抠图,显著提升设计品质和效率。平台不仅提供工具,还是一个促进创意交流和个人发展的空间,界面友好,适合所有级别的设计师和创意工作者。

图像生成AI工具AI反应堆AI工具箱AI绘画GOAI艺术字堆友相机AI图像热门
码上飞

码上飞

零代码AI应用开发平台

零代码AI应用开发平台,用户只需一句话简单描述需求,AI能自动生成小程序、APP或H5网页应用,无需编写代码。

Vora

Vora

免费创建高清无水印Sora视频

Vora是一个免费创建高清无水印Sora视频的AI工具

Refly.AI

Refly.AI

最适合小白的AI自动化工作流平台

无需编码,轻松生成可复用、可变现的AI自动化工作流

酷表ChatExcel

酷表ChatExcel

大模型驱动的Excel数据处理工具

基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。

AI工具酷表ChatExcelAI智能客服AI营销产品使用教程
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
AIWritePaper论文写作

AIWritePaper论文写作

AI论文写作指导平台

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

AI辅助写作AI工具AI论文工具论文写作智能生成大纲数据安全AI助手热门
博思AIPPT

博思AIPPT

AI一键生成PPT,就用博思AIPPT!

博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。

AI办公办公工具AI工具博思AIPPTAI生成PPT智能排版海量精品模板AI创作热门
潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

下拉加载更多