在人工智能和大语言模型(LLM)领域,我们正经历着令人兴奋的技术革新。得益于LLaMA、Alpaca、Vicuna等开源项目的努力,我们开始看到构建自己的开源语言模型和个人AI助手的美好未来。然而,这些模型通常规模庞大且计算密集,传统上需要大型服务器集群来运行推理服务。WebLLM项目为这一生态系统带来了新的可能性,它让我们可以直接在Web浏览器中运行大语言模型,无需依赖服务器端处理。
浏览器内推理: WebLLM是一个高性能的浏览器内语言模型推理引擎,利用WebGPU进行硬件加速,使强大的LLM操作可以直接在Web浏览器中进行。
完全兼容OpenAI API: WebLLM提供与OpenAI API完全兼容的接口,包括流式输出、JSON模式、函数调用等功能,使开发者可以轻松将WebLLM作为OpenAI API的替代品使用。
广泛的模型支持: WebLLM原生支持多种模型,包括Llama 3、Phi 3、Gemma、Mistral、Qwen(通义千问)等,适用于各种AI任务。
自定义模型集成: 开发者可以轻松集成和部署MLC格式的自定义模型,增强了模型部署的灵活性。
即插即用集成: 通过NPM、Yarn等包管理器或CDN,可以轻松将WebLLM集成到项目中,并提供全面的示例和模块化设计。
流式输出与实时交互: 支持流式聊天完成,实现实时输出生成,增强了聊天机器人和虚拟助手等交互式应用的体验。
Web Worker和Service Worker支持: 通过将计算卸载到单独的工作线程或服务工作线程,优化UI性能并高效管理模型生命周期。
Chrome扩展支持: 可以使用WebLLM构建自定义Chrome扩展,扩展Web浏览器的功能。
WebLLM利用WebGPU技术,这是一个Web标准,能够在浏览器中实现原生GPU执行,从而实现更快的图形渲染和计算。WebGPU是WebGL的继任者,不仅设计用于图形渲染,还为通用GPU计算(GPGPU)提供了一流的支持。
通过WebLLM,开发者可以将开源大语言模型编译为与WebGPU兼容的格式,并在浏览器中运行。这种方法带来了几个显著的优势:

要开始使用WebLLM,开发者可以通过NPM或Yarn等包管理器安装WebLLM包:
npm install @mlc-ai/web-llm
或者通过CDN直接在HTML中引入:
<script type="module"> import * as webllm from "https://esm.run/@mlc-ai/web-llm"; </script>
安装完成后,可以创建一个MLCEngine实例并加载模型:
import { CreateMLCEngine } from "@mlc-ai/web-llm"; const initProgressCallback = (initProgress) => { console.log(initProgress); } const selectedModel = "Llama-3.1-8B-Instruct-q4f32_1-MLC"; const engine = await CreateMLCEngine( selectedModel, { initProgressCallback: initProgressCallback }, );
加载模型后,就可以使用与OpenAI API兼容的接口进行聊天完成:
const messages = [ { role: "system", content: "You are a helpful AI assistant." }, { role: "user", content: "Hello!" }, ]; const reply = await engine.chat.completions.create({ messages, }); console.log(reply.choices[0].message);
除了基本的聊天功能,WebLLM还支持多种高级用法:
流式输出: 通过设置stream: true,可以实现实时流式输出。
JSON模式: 确保输出为JSON格式,适用于需要结构化数据的场景。
种子复现: 使用seed字段确保输出的可重现性。
函数调用: 支持使用tools和tool_choice字段进行函数调用(正在开发中)。
Web Worker集成: 将计算密集型任务放入Web Worker,以优化应用性能。
Service Worker支持: 利用Service Worker可以避免在每次页面访问时重新加载模型,优化离线体验。
Chrome扩展开发: 可以使用WebLLM构建Chrome扩展,将AI能力集成到浏览器中。
WebLLM不仅支持预构建的模型,还允许开发者集成自定义模型。通过MLC LLM项目,开发者可以将自己的模型编译为WebLLM兼容的格式,并在浏览器中运行。这为开发者提供了极大的灵活性,可以根据特定需求定制和优化模型。
WebLLM项目为AI技术的普及和个人化应用开辟了新的道路。随着Web技术和AI模型的不断进步,我们可以期待看到更多创新的浏览器内AI应用:
更强大的模型: 随着浏览器和设备性能的提升,可以在浏览器中运行更大、更复杂的模型。
更广泛的应用场景: 从教育工具到创意写作助手,WebLLM可以支持各种各样的应用。
增强的隐 私保护: 随着用户对数据隐私的关注增加,本地运行AI模型的方案将变得更加重要。
跨平台兼容性: WebLLM有潜力成为跨平台AI应用开发的统一解决方案。
AI+Web3: 结合去中心化技术,WebLLM可能为Web3生态系统带来新的可能性。
WebLLM代表了AI技术与Web技术融合的一个重要里程碑。它不仅降低了使用大语言模型的门槛,还为开发者提供了前所未有的灵活性和创新空间。随着项目的不断发展和完善,我们可以期待看到更多令人兴奋的应用和用例出现。无论你是AI研究者、Web开发者,还是对技术创新感兴趣的普通用户,WebLLM都为你打开了一扇通向AI新世界的大门。让我们一起期待WebLLM带来的无限可能!



AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频


实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。


选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


最强AI数据分析助手
小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。


像人一样思考的AI智能体
imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号