最佳量化AI工具和应用推荐 - 提升数据分析效率

Qwen2.5-Coder-7B-Instruct-GGUF

Qwen2.5-Coder-7B-Instruct-GGUF

大语言模型开源项目

深度学习模型的多规格量化版本适配不同硬件和性能要求

Phi-3.5-mini-instruct_Uncensored-GGUF

Phi-3.5-mini-instruct_Uncensored-GGUF

LLMGGUF

优化的量化模型提供多种压缩方案支持不同运行环境

Rombos-LLM-V2.6-Qwen-14b-GGUF

Rombos-LLM-V2.6-Qwen-14b-GGUF

Rombos-LLM模型压缩

基于llama.cpp的Qwen-14B量化模型集合

MiniCPM-V-2_6-gguf

MiniCPM-V-2_6-gguf

GithubMiniCPM-V

高性能GGUF格式多模态模型转换与部署指南

NVLM-D-72B-nf4

NVLM-D-72B-nf4

GPU内存量化

多模态模型NF4量化与性能优化研究

mini-magnum-12b-v1.1-iMat-GGUF

mini-magnum-12b-v1.1-iMat-GGUF

llama.cppGithub

基于mini-magnum的量化优化大语言模型

Llama3-8B-1.58-100B-tokens

Llama3-8B-1.58-100B-tokens

BitNetLlama3-8B-1.58

基于BitNet架构的Llama3 8B量化版本

MN-12B-Mag-Mell-R1-GGUF

MN-12B-Mag-Mell-R1-GGUF

MN-12B-Mag-Mell-R1Github

优化的GGUF量化模型集合,提供多种量化精度选项和详细性能对比

Qwen2.5-72B-Instruct-GPTQ-Int4

Qwen2.5-72B-Instruct-GPTQ-Int4

Qwen2.5Github

Qwen2.5-72B模型4位量化版支持128K长文本及多语言处理

TinyLlama-1.1B-Chat-v1.0-GGUF

TinyLlama-1.1B-Chat-v1.0-GGUF

TinyLlama大语言模型

TinyLlama 轻量级语言模型的量化优化版

Qwen2.5-Math-7B-Instruct-GGUF

Qwen2.5-Math-7B-Instruct-GGUF

大语言模型GGUF

针对性能和空间优化的Qwen2.5数学模型GGUF量化版本

Mixtral-8x7B-Instruct-v0.1-GGUF

Mixtral-8x7B-Instruct-v0.1-GGUF

AI模型Huggingface

Mixtral-8x7B多语言模型的GGUF量化版本

Meta-Llama-3-70B-Instruct-FP8

Meta-Llama-3-70B-Instruct-FP8

模型量化

FP8量化优化的Meta-Llama-3-70B指令模型实现高效部署

Qwen-7B-Chat

Qwen-7B-Chat

模型量化

阿里云开发的多语言大模型AI助手

Qwen2.5-7B-Instruct-GPTQ-Int4

Qwen2.5-7B-Instruct-GPTQ-Int4

Huggingface模型

Qwen2.5系列4位量化模型支持长文本处理和多语言功能

Llama-3.2-3B-Instruct-uncensored-GGUF

Llama-3.2-3B-Instruct-uncensored-GGUF

模型量化

3B参数指令微调语言模型的高效GGUF量化版本

Qwen2.5-32B-Instruct-GGUF

Qwen2.5-32B-Instruct-GGUF

模型量化

全面汇总32B大语言模型量化版本 多设备支持

NemoMix-Unleashed-12B-GGUF

NemoMix-Unleashed-12B-GGUF

模型量化

NemoMix-Unleashed-12B模型的多种量化版本

Meta-Llama-3.1-8B-Instruct-GGUF

Meta-Llama-3.1-8B-Instruct-GGUF

Huggingface模型

Llama 3.1多语言指令模型的量化版本

Meta-Llama-3.1-70B-Instruct-GPTQ-INT4

Meta-Llama-3.1-70B-Instruct-GPTQ-INT4

模型量化

INT4量化版提升多语言对话效率