lmdeploy是由MMRazor和MMDeploy团队开发的LLM压缩、部署和服务工具包。它具有以下核心特性:
推荐使用pip在conda环境中安装lmdeploy (Python 3.8-3.12):
conda create -n lmdeploy python=3.8 -y conda activate lmdeploy pip install lmdeploy
默认预编译包基于CUDA 12。更多安装选项请参考安装指南。
import lmdeploy pipe = lmdeploy.pipeline("internlm/internlm2-chat-7b") response = pipe(["Hi, pls intro yourself", "Shanghai is"]) print(response)
更多推理pipeline使用说明请参考这里。
lmdeploy支持大量主流LLM和VLM模型,包括Llama系列、InternLM系列、Qwen系列、Baichuan系列等。详细支持列表请参考这里。
更多设备和场景的详细性能评测请参考这里。
欢迎加入lmdeploy社区,贡献代码或反馈使用体验!让我们一起推动LLM部署技术的发展。