LLama.cpp 的 Rust 绑定。
这些 Rust 绑定主要基于 https://github.com/go-skynet/go-llama.cpp/
注意:此仓库使用 git 子模块来跟踪 LLama.cpp。
在本地克隆仓库:
git clone --recurse-submodules https://github.com/mdrokz/rust-llama.cpp
cargo build
[dependencies] llama_cpp_rs = "0.3.0"
use llama_cpp_rs::{ options::{ModelOptions, PredictOptions}, LLama, }; fn main() { let model_options = ModelOptions::default(); let llama = LLama::new( "../wizard-vicuna-13B.ggmlv3.q4_0.bin".into(), &model_options, ) .unwrap(); let predict_options = PredictOptions { token_callback: Some(Box::new(|token| { println!("token1: {}", token); true })), ..Default::default() }; llama .predict( "what are the national animals of india".into(), predict_options, ) .unwrap(); }
示例中包含用于运行它们的 Dockerfile
请参阅 examples
MIT