手机端多模态大语言模型突破性进展:8B参数达GPT-4V水平
MiniCPM-Llama3-V-2_5是一款创新型多模态大语言模型,仅使用8B参数即达到GPT-4V级性能。该模型具备出色的OCR能力、可靠的行为表现和广泛的多语言支持,可高效部署于手机等边缘设备。支持30多种语言,并提供多种灵活部署方式,如llama.cpp、GGUF格式和LoRA微调。MiniCPM-Llama3-V-2_5标志着端侧多模态大语言模型的重要进展。
MiniCPM-Llama3-V-2_5是一个先进的多模态大语言模型(MLLM)项目,它在移动设备上实现了接近GPT-4V水平的性能。这个项目由OpenBMB团队开发,具有以下几个突出特点:
尽管只有8B参数,MiniCPM-Llama3-V-2_5在OpenCompass综合评测中的11个流行基准测试上取得了65.1的平均分,超过了许多知名的专有模型,如GPT-4V-1106、Gemini Pro和Claude 3等。它在性能上大大超越了其他基于Llama 3的多模态大语言模型。
该模型可以处理任意宽高比和高达180万像素(如1344x1344)的图像。它在OCRBench上获得了700多分的高分,超过了GPT-4V等专有模型。根据用户反馈,MiniCPM-Llama3-V-2_5在全文OCR提取、表格转Markdown等高实用性能力上有了进一步提升,同时增强了指令遵循和复杂推理能力。
利用最新的RLAIF-V方法,MiniCPM-Llama3-V-2_5展现出更可信的行为。在Object HalBench上,它的幻觉率仅为10.3%,低于GPT-4V-1106的13.6%,达到了开源社区的最佳水平。
得益于Llama 3强大的多语言能力和VisCPM的跨语言泛化技术,MiniCPM-Llama3-V-2_5将其双语(中英文)多模态能力扩展到了30多种语言,包括德语、法语、西班牙语、意大利语、韩语和日语等。
该项目系统地采用了模型量化、CPU优化、NPU优化和编译优化,实现了在边缘设备上的高效部署。对于搭载高通芯片的手机,该项目首次将NPU加速框架QNN集成到llama.cpp中。经过系统优化,MiniCPM-Llama3-V-2_5在多模态大模型端侧图像编码上实现了150倍的加速,语言解码速度提高了3倍。
MiniCPM-Llama3-V-2_5提供了多种便捷的使用方式,包括: