SiLLM 通过利用 MLX 框架,简化了在 Apple Silicon 上训练和运行大语言模型(LLMs)的过程。基于 MLX Examples 提供的基础,本项目引入了专门设计的额外功能,以增强 MLX 在精简包装中的 LLM 操作。
SiLLM 的主要目标之一是让更多使用 Apple Silicon 硬件的用户能够探索大语言模型的内部工作原理,并使新技术变得更加易于使用。
控制模块整合了基于论文表征工程和博客拒绝消融的技术。表征工程是一种在训练过程中从模型隐藏状态计算控制向量的方法,可用于在推理过程中影响行为和生成的输出。拒绝消融的原理类似,但可用于从模型权重中移除向量所代表的方向。
使用 pip:
pip install sillm-mlx
该网页应用使用 Chainlit 为在 Apple Silicon 硬件上本地运行的对话式 AI 提供前端界面。
https://github.com/armbues/SiLLM/assets/4117144/ab537795-5020-4241-aa89-3b19b9de263b
要使用网页应用,请克隆仓库并使用 chainlit 启动应用:
git clone https://github.com/armbues/SiLLM.git cd SiLLM/app pip install -r requirements.txt python -m chainlit run app.py -w
设置环境变量 SILLM_MODEL_DIR
和 SILLM_ADAPTER_DIR
以加载本地模型/适配器。
使用参数 -h 运行 CLI 脚本,查看所有可用参数的打印输出。
在终端中与 LLM 对话的简单 CLI 界面。
python -m sillm.chat /path/to/model
在搭载 16GB 内存的 MacBook Air M2 上使用 Gemma-2B-it 在终端中运行 sillm.chat:
https://github.com/armbues/SiLLM/assets/4117144/42e2d0f8-3bd8-44ca-9f78-8c4a885b8939
运行带有基本功能的 API 服务器,兼容 OpenAI 对话端点。
python -m sillm.server /path/to/model --port 8000
使用低秩适应(LoRA)微调模型。
python -m sillm.lora /path/to/model -d /path/to/dataset -o /output/adapters
使用 LoRA 和直接偏好优化(DPO)微调模型。
python -m sillm.dpo /path/to/model -d /path/to/dataset -o /output/adapters
在合并适配器或量化权重时转换模型。
将适配器合并到模型的示例:
python -m sillm.convert /path/to/input/model /path/to/output/model -a /path/to/adapters
串行量化模型(无需将整个模型加载到内存中):
python -m sillm.quantize /path/to/input/model /path/to/output/model --bits 4
使用 SiLLM 加载模型并生成文本补全的最小示例:
import sillm model = sillm.load("/path/to/model") for s, _ in model.generate("在一个美丽的星期天早晨,"): print(s, flush=True, end="")
SiLLM-examples 仓库包含了使用 SiLLM 框架训练和运行 LLM 的 Python 代码示例。
使用 Nvidia HelpSteer 数据集对 Mistral-7B-Instruct-v0.2 进行 LoRA 训练。
使用 DPO Mix 7K 数据集对 Qwen1.5-7B-Chat 进行 DPO 训练。训练包括监督微调(SFT)和直接偏好优化(DPO)。
使用 MMLU 数据集实现"大规模多任务语言理解"基准测试。
使用维基百科文章入口段落的样本数据集计算困惑度分数。
SiLLM 通常支持加载以下模型架构/系列的 LLM:Llama 2、Mistral、Mixtral、Gemma、Phi、Qwen 2、StarCoder2。
以下是已成功在 SiLLM 中测试过的模型列表:
模型系列 | 模型/规模 (HF) | 模型/规模 (GGUF) | 模型/规模 (MLX) |
---|---|---|---|
Llama-3 | 8B-指令版, 70B-指令版 | ||
Llama-2 | 7b-聊天版 | 7b-聊天版.Q8_0, 13b-聊天版.Q8_0 | 7b, 7b-聊天版 |
Mistral | 7b-指令版-v0.2, 7b-指令版-v0.3 | 7b-指令版-v0.2.Q8_0 | |
Mixtral | 8x7B-指令版-v0.1, 8x22B-指令版-v0.1 | ||
Gemma | 2b, 2b-it, 7b, 7b-it | ||
Phi-2 | 2.7b | ||
Phi-3 | mini-4k | ||
Qwen 1.5 | 7b-聊天版, 14b-聊天版 | ||
Qwen 2 | 7b-指令版, 72b-指令版 | ||
StarCoder2 | 3b, 7b, 15b | ||
CodeLlama | 70b-指令版.Q4_0, Phind-34b-v2.Q4_0 | ||
Codestral | 22b-v0.1 | ||
DBRX | (当前不支持) | dbrx-指令版-4bit | |
Cohere | Command-R, [Command-R+](https://github.com/armbues/SiLLM/blob/main/CohereForAI/c4ai-command-r-plus |
本项目使用MIT许可证。
非常感谢Apple MLX团队实施和维护MLX框架,使得可以释放Apple Silicon的力量,在MacBook和其他Apple设备上运行/训练大型语言模型。感谢MLX Examples项目的所有贡献者以及在线分享模型实现的开发者。 最后但同样重要的是,感谢更广泛的社区分享开放权重模型、微调和数据集 - 没有你们,人工智能的进展将 只能在封闭的门后发生!
AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
最强AI数据分析助手
小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。
像人一样思考的AI智能体
imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。
AI数字人视频创作平台
Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。
一站式AI创作平台
提供 AI 驱动的图片、视频生成及数字人等功能,助力创意创作
AI办公助手,复杂任务高效处理
AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!
AI小说写作助手,一站式润色、改写、扩写
蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号