deepseek-coder-33B-instruct-AWQ

deepseek-coder-33B-instruct-AWQ

高性能AWQ量化版本的代码生成AI助手

DeepSeek Coder 33B Instruct模型的AWQ量化版本由TheBloke制作,在保持原模型性能的同时显著降低内存占用。该模型基于2T代码和语言数据训练,支持多种编程语言的代码生成、补全和填充。用户可通过text-generation-webui、vLLM和HuggingFace TGI等工具进行模型推理,适合在资源受限环境中部署使用。

DeepSeek CoderHuggingface模型代码生成人工智能Github开源项目自然语言处理模型训练

DeepSeek Coder 33B Instruct-AWQ 项目介绍

项目概览

DeepSeek Coder 33B Instruct-AWQ 是由 TheBloke 对 DeepSeek 公司开发的 DeepSeek Coder 33B Instruct 模型进行量化处理后的版本。这个项目旨在提供一个更加轻量级、易于部署的大型代码语言模型,同时保持原模型的强大性能。

模型特点

  1. 基于先进的代码模型: 原始模型 DeepSeek Coder 33B Instruct 是在 2T 代码和语言数据上训练而成的大型语言模型,具有卓越的代码理解和生成能力。

  2. AWQ 量化技术: 使用 AWQ(Activation-aware Weight Quantization)技术将模型量化为 4 位精度,大幅减小模型体积,提高推理速度。

  3. 保持性能: 相比常用的 GPTQ 量化方法,AWQ 在相同或更好的质量下提供更快的基于 Transformers 的推理。

  4. 多场景适用: 可用于代码补全、代码生成、问答等多种编程相关任务。

  5. 灵活部署: 支持在多种平台和框架中使用,包括 Text Generation WebUI、vLLM、Hugging Face TGI 等。

使用方法

1. Text Generation WebUI

  1. 在模型标签页下载 TheBloke/deepseek-coder-33B-instruct-AWQ
  2. 选择 "Loader: AutoAWQ"。
  3. 加载模型并开始使用。

2. vLLM

使用 --quantization awq 参数启动 vLLM 服务器:

python3 -m vllm.entrypoints.api_server --model TheBloke/deepseek-coder-33B-instruct-AWQ --quantization awq

3. Hugging Face TGI

使用 Docker 运行 TGI 服务:

--model-id TheBloke/deepseek-coder-33B-instruct-AWQ --port 3000 --quantize awq --max-input-length 3696 --max-total-tokens 4096 --max-batch-prefill-tokens 4096

4. Python 代码中使用 AutoAWQ

安装 AutoAWQ 包后,可以使用以下代码加载和使用模型:

from awq import AutoAWQForCausalLM from transformers import AutoTokenizer model_name_or_path = "TheBloke/deepseek-coder-33B-instruct-AWQ" tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, trust_remote_code=False) model = AutoAWQForCausalLM.from_quantized(model_name_or_path, fuse_layers=True, trust_remote_code=False, safetensors=True) # 使用模型生成代码或回答问题

技术细节

  • 量化方法: AWQ(4位精度)
  • 模型大小: 约 18.01 GB
  • 序列长度: 16384
  • 量化数据集: Evol Instruct Code

局限性和注意事项

  1. 模型仅回答与计算机科学相关的问题,对于政治敏感、安全隐私等非计算机科学问题会拒绝回答。
  2. 作为量化模型,在某些极端情况下可能会出现轻微的性能损失。
  3. 使用时需注意遵守相关的许可协议。

总结

DeepSeek Coder 33B Instruct-AWQ 项目为开发者和研究人员提供了一个强大而高效的代码语言模型。通过 AWQ 量化技术,它在保持原模型优秀性能的同时,大大提高了模型的可用性和部署灵活性。无论是在个人开发环境还是大规模服务部署中,这个模型都能为代码相关任务提供有力支持。

</response>

编辑推荐精选

潮际好麦

潮际好麦

AI赋能电商视觉革命,一站式智能商拍平台

潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。

iTerms

iTerms

企业专属的AI法律顾问

iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。

SimilarWeb流量提升

SimilarWeb流量提升

稳定高效的流量提升解决方案,助力品牌曝光

稳定高效的流量提升解决方案,助力品牌曝光

Sora2视频免费生成

Sora2视频免费生成

最新版Sora2模型免费使用,一键生成无水印视频

最新版Sora2模型免费使用,一键生成无水印视频

Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
TRAE编程

TRAE编程

AI辅助编程,代码自动修复

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
商汤小浣熊

商汤小浣熊

最强AI数据分析助手

小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。

imini AI

imini AI

像人一样思考的AI智能体

imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。

Keevx

Keevx

AI数字人视频创作平台

Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。

下拉加载更多