
C语言开发的机器学习张量库 支持多种AI模型推理
ggml是一个C语言编写的机器学习张量库,支持16位浮点和整数量化。该库提供自动微分、优化器和多架构优化,无第三方依赖。ggml可用于GPT、LLaMA、Whisper等多种AI模型的推理。它在CPU上表现高效,同时支持GPU加速,适用于多种设备和平台。
机器学习张量库
请注意,该项目正在积极开发中。
目前部分开发工作正在 llama.cpp 和 whisper.cpp 仓库中进行
git clone https://github.com/ggerganov/ggml cd ggml # 在虚拟环境中安装 Python 依赖 python3.10 -m venv ggml_env source ./ggml_env/bin/activate pip install -r requirements.txt # 构建示例 mkdir build && cd build cmake .. cmake --build . --config Release -j 8
使用 ggml,您可以在 CPU 上高效运行 GPT-2 和 GPT-J 推理。
以下是运行示例程序的方法:
# 运行 GPT-2 小型 117M 模型 ../examples/gpt-2/download-ggml-model.sh 117M ./bin/gpt-2-backend -m models/gpt-2-117M/ggml-model.bin -p "This is an example" # 运行 GPT-J 6B 模型(需要 12GB 磁盘空间和 16GB CPU 内存) ../examples/gpt-j/download-ggml-model.sh 6B ./bin/gpt-j -m models/gpt-j-6B/ggml-model.bin -p "This is an example"
python3 ../examples/gpt-2/convert-cerebras-to-ggml.py /path/to/Cerebras-GPT-111M/ ./bin/gpt-2 -m /path/to/Cerebras-GPT-111M/ggml-model-f16.bin -p "这是一个示例"
以下是我在32GB MacBook M1 Pro上运行不同模型得到的推理速度:
| 模型 | 大小 | 每个词元时间 |
| --- | --- | --- |
| GPT-2 | 117M | 5 毫秒 |
| GPT-2 | 345M | 12 毫秒 |
| GPT-2 | 774M | 23 毫秒 |
| GPT-2 | 1558M | 42 毫秒 |
| --- | --- | --- |
| GPT-J | 6B | 125 毫秒 |
更多信息请查看[examples](examples)文件夹中的相应程序。
## 使用 Metal (仅适用于 GPT-2)
对于 GPT-2 模型,可以将计算卸载到 GPU。请注意,这不会提高推理性能,但会减少功耗并释放 CPU 用于其他任务。
在 MacOS 上启用 GPU 卸载:
```bash
cmake -DGGML_METAL=ON -DBUILD_SHARED_LIBS=Off ..
# 添加 -ngl 1
./bin/gpt-2 -t 4 -ngl 100 -m models/gpt-2-117M/ggml-model.bin -p "这是一个示例"
# 将路径修改为指向你的 CUDA 编译器 cmake -DGGML_CUDA=ON -DCMAKE_CUDA_COMPILER=/usr/local/cuda-12.1/bin/nvcc ..
cmake -DCMAKE_C_COMPILER="$(hipconfig -l)/clang" -DCMAKE_CXX_COMPILER="$(hipconfig -l)/clang++" -DGGML_HIPBLAS=ON
# linux source /opt/intel/oneapi/setvars.sh cmake -G "Ninja" -DCMAKE_C_COMPILER=icx -DCMAKE_CXX_COMPILER=icpx -DGGML_SYCL=ON .. # windows "C:\Program Files (x86)\Intel\oneAPI\setvars.bat" cmake -G "Ninja" -DCMAKE_C_COMPILER=cl -DCMAKE_CXX_COMPILER=icx -DGGML_SYCL=ON ..
从此下载页面下载并解压 NDK。设置 NDK_ROOT_PATH 环境变量或在下面的命令中提供 CMAKE_ANDROID_NDK 的绝对路径。
cmake .. \ -DCMAKE_SYSTEM_NAME=Android \ -DCMAKE_SYSTEM_VERSION=33 \ -DCMAKE_ANDROID_ARCH_ABI=arm64-v8a \ -DCMAKE_ANDROID_NDK=$NDK_ROOT_PATH -DCMAKE_ANDROID_STL_TYPE=c++_shared
# 创建目录 adb shell 'mkdir /data/local/tmp/bin' adb shell 'mkdir /data/local/tmp/models' # 将编译好的二进制文件推送到文件夹 adb push bin/* /data/local/tmp/bin/ # 推送 ggml 库 adb push src/libggml.so /data/local/tmp/ # 推送模型文件 adb push models/gpt-2-117M/ggml-model.bin /data/local/tmp/models/ # 现在让我们进行一些推理... adb shell # 现在我们进入了 shell cd /data/local/tmp export LD_LIBRARY_PATH=/data/local/tmp ./bin/gpt-2-backend -m models/ggml-model.bin -p "这是一个示例"
llm Rust crate 的维护者提供的 GGML 格式描述,该 crate 为 GGML 提供 Rust 绑定

免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


AI论文写作指导平台
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同 时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号