
Willow Inference Server (WIS)是一个专注且高度优化的语言推理服务器实现。它的目标是实现高性能、低成本的自托管语音和语言任务,支持最新的开源模型。
主要特性包括:
主要针对CUDA优化,支持从Tesla P4、GTX 1060等低端GPU到RTX 4090等高端GPU。也可以仅使用CPU运行。
内存优化,6GB显存即可同时加载3个Whisper模型(base、medium、large-v2)及TTS支持。LLM默认使用int4量化以节省GPU内存。
高质量、接近实时的语音识别(ASR),延迟仅数百毫秒。
支持TTS,主要用于语音助手和视障用户。
可选LLM支持,用于问答、聊天机器人等任务。默认使用Vicuna模型。
支持多种传输方式:REST、WebRTC、WebSocket等。
性能和内存优化,利用CTranslate2和AutoGPTQ等技术。
支持Willow项目,为Willow用户提供推理服务。
WebRTC支持流式音频,优化长时间会话的带宽和CPU使用。
支持自定义TTS语音。
git clone https://github.com/toverainc/willow-inference-server.git
cd willow-inference-server
安装NVIDIA驱动(推荐530版本)
安装nvidia-container-toolkit:
# Arch Linux:
yay -S libnvidia-container-tools libnvidia-container nvidia-container-toolkit docker-buildx
# Ubuntu:
./deps/ubuntu.sh
# 安装
./utils.sh install
# 生成自签名TLS证书
./utils.sh gen-cert [your hostname]
# 启动WIS
./utils.sh run
.env文件可覆盖utils.sh中的变量settings.py为custom_settings.py可修改WIS特定参数https://[your host]:19000/api/willowhttps://[your host]:19000/rtchttps://[your host]:19000/api/docsWIS在各种GPU上都有出色的性能表现,详细数据可查看GitHub仓库的基准测试部分。
WIS是一个强大而灵活的语音和语言推理服务器,可以为Willow等项目提供高性能的后端支持。它正在快速发展中,欢迎社区参与贡献!


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频


实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

