LlamaGPTJ-chat 是一个简单的命令行聊天程序,专为 GPT-J、LLaMA 和 MPT 模型设计,使用 C++ 编写。它的开发基于 llama.cpp,并结合 gpt4all-backend 以实现全面兼容性。尽管项目尚处于早期阶段,可能会存在一些 Bug,但它为用户提供了一个简洁高效的聊天体验。
由于该程序使用 C++ 开发,因此可以在大多数 Linux、MacOS 和 Windows 系统上构建和运行。在 GitHub 的 Releases 页面可以找到已经构建好的二进制文件。现代计算机通常支持 AVX2 指令集,该版本运行速度更快。如果要执行该程序,它会检测并告知您的计算机是否支持 AVX2。
执行以下命令以下载代码:
git clone --recurse-submodules https://github.com/kuvaus/LlamaGPTJ-chat cd LlamaGPTJ-chat
接着,需要下载模型文件,请参考支持的模型以获取详细信息和链接。
在大多数系统上,只需 要以下步骤进行构建:
mkdir build cd build cmake .. cmake --build . --parallel
-DAVX2=OFF
标志。-DAVX512=ON
标志。-DBUILD_UNIVERSAL=OFF
,使构建仅适用于 x86 而不是通用的 Intel/ARM64 二进制文件。完成编译后,二进制文件位于:
build/bin/chat
可以按需移动到任何位置。以下是启动程序的简单命令,使用 4 个线程:
./chat -m "/path/to/modelfile/ggml-vicuna-13b-1.1-q4_2.bin" -t 4
聊天愉快!
当前后台支持 GPT-J、LLaMA 和 MPT 模型。这些模型各有特点,用户可以根据需求选择下载。例如: