
C语言开发的机器学习张量库 支持多种AI模型推理
ggml是一个C语言编写的机器学习张量库,支持16位浮点和整数量化。该库提供自动微分、优化器和多架构优化,无第三方依赖。ggml可用于GPT、LLaMA、Whisper等多种AI模型的推理。它在CPU上表现高效,同时支持GPU加速,适用于多种设备和平台。
机器学习张量库
请注意,该项目正在积极开发中。
目前部分开发工作正在 llama.cpp 和 whisper.cpp 仓库中进行
git clone https://github.com/ggerganov/ggml cd ggml # 在虚拟环境中安装 Python 依赖 python3.10 -m venv ggml_env source ./ggml_env/bin/activate pip install -r requirements.txt # 构建示例 mkdir build && cd build cmake .. cmake --build . --config Release -j 8
使用 ggml,您可以在 CPU 上高效运行 GPT-2 和 GPT-J 推理。
以下是运行示例程序的方法:
# 运行 GPT-2 小型 117M 模型 ../examples/gpt-2/download-ggml-model.sh 117M ./bin/gpt-2-backend -m models/gpt-2-117M/ggml-model.bin -p "This is an example" # 运行 GPT-J 6B 模型(需要 12GB 磁盘空间和 16GB CPU 内存) ../examples/gpt-j/download-ggml-model.sh 6B ./bin/gpt-j -m models/gpt-j-6B/ggml-model.bin -p "This is an example"
python3 ../examples/gpt-2/convert-cerebras-to-ggml.py /path/to/Cerebras-GPT-111M/ ./bin/gpt-2 -m /path/to/Cerebras-GPT-111M/ggml-model-f16.bin -p "这是一个示例"
以下是我在32GB MacBook M1 Pro上运行不同模型得到的推理速度:
| 模型 | 大小 | 每个词元时间 |
| --- | --- | --- |
| GPT-2 | 117M | 5 毫秒 |
| GPT-2 | 345M | 12 毫秒 |
| GPT-2 | 774M | 23 毫秒 |
| GPT-2 | 1558M | 42 毫秒 |
| --- | --- | --- |
| GPT-J | 6B | 125 毫秒 |
更多信息请查看[examples](examples)文件夹中的相应程序。
## 使用 Metal (仅适用于 GPT-2)
对于 GPT-2 模型,可以将计算卸载到 GPU。请注意,这不会提高推理性能,但会减少功耗并释放 CPU 用于其他任务。
在 MacOS 上启用 GPU 卸载:
```bash
cmake -DGGML_METAL=ON -DBUILD_SHARED_LIBS=Off ..
# 添加 -ngl 1
./bin/gpt-2 -t 4 -ngl 100 -m models/gpt-2-117M/ggml-model.bin -p "这是一个示例"
# 将路径修改为指向你的 CUDA 编译器 cmake -DGGML_CUDA=ON -DCMAKE_CUDA_COMPILER=/usr/local/cuda-12.1/bin/nvcc ..
cmake -DCMAKE_C_COMPILER="$(hipconfig -l)/clang" -DCMAKE_CXX_COMPILER="$(hipconfig -l)/clang++" -DGGML_HIPBLAS=ON
# linux source /opt/intel/oneapi/setvars.sh cmake -G "Ninja" -DCMAKE_C_COMPILER=icx -DCMAKE_CXX_COMPILER=icpx -DGGML_SYCL=ON .. # windows "C:\Program Files (x86)\Intel\oneAPI\setvars.bat" cmake -G "Ninja" -DCMAKE_C_COMPILER=cl -DCMAKE_CXX_COMPILER=icx -DGGML_SYCL=ON ..
从此下载页面下载并解压 NDK。设置 NDK_ROOT_PATH 环境变量或在下面的命令中提供 CMAKE_ANDROID_NDK 的绝对路径。
cmake .. \ -DCMAKE_SYSTEM_NAME=Android \ -DCMAKE_SYSTEM_VERSION=33 \ -DCMAKE_ANDROID_ARCH_ABI=arm64-v8a \ -DCMAKE_ANDROID_NDK=$NDK_ROOT_PATH -DCMAKE_ANDROID_STL_TYPE=c++_shared
# 创建目录 adb shell 'mkdir /data/local/tmp/bin' adb shell 'mkdir /data/local/tmp/models' # 将编译好的二进制文件推送到文件夹 adb push bin/* /data/local/tmp/bin/ # 推送 ggml 库 adb push src/libggml.so /data/local/tmp/ # 推送模型文件 adb push models/gpt-2-117M/ggml-model.bin /data/local/tmp/models/ # 现在让我们进行一些推理... adb shell # 现在我们进入了 shell cd /data/local/tmp export LD_LIBRARY_PATH=/data/local/tmp ./bin/gpt-2-backend -m models/ggml-model.bin -p "这是一个示例"
llm Rust crate 的维护者提供的 GGML 格式描述,该 crate 为 GGML 提供 Rust 绑定

AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝 光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频


实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。


选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


最强AI数据分析助手
小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。


像人一样思考的AI智能体
imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。


AI数字人视频创作平台
Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。