简化MLX AI模型管理的工具
Pico MLX Server提供简单易用的图形界面,便于管理MLX AI模型。通过菜单栏可以迅速启动和停止服务器,用户还可以从HuggingFace下载MLX模型,安装Python环境和必要依赖,并在多个端口同时运行多个服务器。此外,Pico MLX Server兼容OpenAI API,支持现有的AI聊天客户端。适用于macOS 14.0及以上版本。
Pico MLX Server 是针对苹果 MLX AI 框架 的一个简单入门工具。它为 MLX Server 提供了图形用户界面。MLX Server 提供了一种 API,让本地的 MLX 模型兼容 OpenAI API。这意味着用户可以通过 Pico MLX Server 轻松地使用大多数现有的 OpenAI 聊天客户端。
用户可访问 HuggingFace 的 MLX 社区 查看支持的 MLX 模型。
要安装 Pico MLX Server,用户可以使用 Xcode 构建源代码,或直接从 GitHub 下载经过校验的可执行文件。设置应用程序时,用户可以手动安装和设置 Python、pip、MLX 和 MLX Server,或者使用 Pico MLX Server 的自动化设置功能。Pico MLX Server 默认使用 Conda 创建一个名为 pico 的虚拟环境,以避免 Python 版本问题。Conda 可以在“设置”中禁用。
通过选择 MLX -> Servers -> New Server...
可以创建新服务器。按下 Create
按钮,在默认端口 8080
创建默认服务器 mlx-community/Nous-Hermes-2-Mistral-7B-DPO-4bit-MLX
。要使用不同的模型,可以点击 v
按钮或从 HuggingFace 的 MLX 社区 手动输入模型(请确保使用 mlx-community/
前缀)。按下 View Logs
按钮可以查看服务器的实时日志。
用户可以将任何兼容 OpenAI API 的 AI 助手指向地址 http://127.0.0.1:8080
(或在 Pico MLX Server 中使用的其他端口)。以下是使用接口的一段示例代码:
curl -X GET 'http://127.0.0.1:8080/generate?prompt=write%20me%20a%20poem%20about%20the%20ocean&stream=true'
Pico MLX Server 使用的是 OpenAI 的 POST /v1/completions
API。详细信息请参阅相关 API 文档。
lsof -i:8080
查找正在运行的服务器的 PID)New Server
窗口和 Servers
菜单中的 SwiftUI 存在一个问题,无法更新服务器状态Pico MLX Server 是一组面向 AI 工程师的开源 Swift 工具的一部分。
Pico MLX Server、Swift OpenAI Proxy 和 Pico AI Assistant 由 Ronald Mannak 和 Ray Fernando 合作创建。MLX Server 由 Mustafa Aljadery 和 Siddharth Sharma 创建。同时也参考了 MLX Swift Chat 和 Swift Chat 的代码。
最强AI数据分析助手
小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。
像人一样思考的AI智能体
imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。
AI数字人视频创作平台
Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。
一站式AI创作平台
提供 AI 驱动的图片、视频生成及数字人等功能,助力创意创作