
多模型集成的开源大规模语言模型调用平台
闻达是一个开源的大规模语言模型调用平台,集成多种离线和在线LLM模型。平台内置本地知识库和搜索引擎,并提供Auto脚本功能用于自定义对话流程。适合个人和中小企业使用,注重知识安全和私密性。平台还包括对话历史管理和多用户支持等实用功能,旨在实现高效的特定环境内容生成。
本项目的设计目标是实现针对特定环境的高效内容生成,同时考虑个人和中小企业的计算资源限制,以及知识安全和隐私问题。为达成这一目标,平台集成了以下功能:
chatGLM-6B\chatGLM2-6B、chatRWKV、llama系列(不推荐中文用户)、moss(不推荐)、baichuan(需配合lora使用,否则效果差)、Aquila-7B、InternLM,在线API访问支持openai api和chatGLM-130b api。交流QQ群:LLM使用和综合讨论群162451840;知识库使用讨论群241773574(已满,请去QQ频道讨论);Auto开发交流群744842245;QQ频道
(目录略)

(表格内容略)
链接:https://pan.baidu.com/s/1idvot-XhEvLLKCbjDQuhyg?pwd=wdai
链接:https://pan.quark.cn/s/c4cb08de666e 提取码:4b4R
默认参数在6G显存设备上运行良好。最新版懒人版已集成一键更新功能,建议使用前更新。
使用步骤(以glm6b模型为例):
CUDA11.8,从网盘下载并安装。运行GLM6B.bat。注意:一定要查看example.config.yml,里面对各功能有更详细的说明!
通用依赖:pip install -r requirements/requirements.txt
根据使用的 知识库进行相应配置
根据需要,下载对应模型。
建议使用chatRWKV的RWKV-4-Raven-7B-v11,或chatGLM-6B。
将example.config.yml重命名为config.yml,根据里面的参数说明,填写你的模型下载位置等信息
Auto功能通过JavaScript脚本实现,使用油猴脚本或直接放到autos目录的方式注入至程序,为闻达添加各种自动化功能。
| 函数(均为异步调用) | 功能 | 说明 |
|---|---|---|
| send(s,keyword = "",show=true) | 向LLM发送信息,返回模型回复的字符串 | s:输入模型文本;keyword:聊天界面显示文本;show:是否在聊天界面显示 |
| add_conversation(role, content) | 添加会话信息 | role:'AI'或'user';content:字符串 |
| save_history() | 保存会话历史 | 对话结束后会自动保存,但手动添加的对话需要手动保存 |
| find(s, step = 1) | 从知识库查找 | 返回json数组 |
| find_dynamic(s,step=1,paraJson) | 从动态知识库查找;参考闻达笔记Auto | paraJson:{libraryStategy:"sogowx:3",maxItmes:2} |
| zsk(b=true) | 开关知识库 | |
| lsdh(b=true) | 开关历史对话 | 开启知识库时应关闭历史 |
| speak(s) | 使用TTS引擎朗读文本 | 调用系统引擎 |
| copy(s) | 使用浏览器clipboard-write复制文本 | 需要相关权限 |
在左侧功能栏添加内容:
func.push({
name: "名称",
question: async () => {
let answer=await send(app.question)
alert(answer)
},
})
在下方选项卡添加内容:
app.plugins.push({ icon: 'note-edit-outline', url: "/static/wdnote/index.html" })
在指定RTST知识库查找:
find_in_memory = async (s, step, memory_name) => {
response = await fetch("/api/find_rtst_in_memory", {
method: 'post',
body: JSON.stringify({
prompt: s,
step: step,
memory_name: memory_name
}),
headers: {
'Content-Type': 'application/json'
}
})
let json = await response.json()
console.table(json)
app.zhishiku = json
return json
}
上传至指定RTST知识库:
upload_rtst_zhishiku = async (title, txt,memory_name) => {
response = await fetch("/api/upload_rtst_zhishiku", {
method: 'post',
body: JSON.stringify({
title: title,
txt: txt,
memory_name: memory_name
}),
headers: { 'Content-Type': 'application/json' }
})
alert(await response.text())
}
保存指定RTST知识库:
save_rtst = async (memory_name) => {
response = await fetch("/api/save_rtst_zhishiku", {
method: 'post',
body: JSON.stringify({
memory_name: memory_name
}),
headers: { 'Content-Type': 'application/json' }
})
alert(await response.text())
}
访问SD_agent:
response = await fetch("/api/sd_agent", {
method: 'post',
body: JSON.stringify({
prompt: `((masterpiece, best quality)), photorealistic,` + Q,
steps: 20,
// sampler_name: "DPM++ SDE Karras",
negative_prompt: `paintings, sketches, (worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, age spot, glans`
}),
headers: {
'Content-Type': 'application/json'
}
})
try {
let json = await response.json()
add_conversation("AI", '")
} catch (error) {
alert("连接SD API失败,请确认已开启agents库,并将SD API地址设置为127.0.0.1:786")
}
| 文件名 | 功能 |
|---|---|
| 0-write_article.js | 写论文:根据题目或提纲写论文 |
| 0-zsk.js | 知识库增强和管理 |
| face-recognition.js | 纯浏览器端人脸检测:通过识别嘴巴开合,控制语音输入。因浏览器限制,仅本地或TLS下可用 |
| QQ.js | QQ机器人:配置过程见文件开头注释 |
| block_programming.js | 猫猫也会的图块化编程:通过拖动图块实现简单Auto功能 |
| 1-draw_use_SD_api.js | 通过agents模块(见example.config.yml<Library>)调用Stable Diffusion接口绘图 |
以上功能主要用于展示auto用法,进一步能力有待广大用户进一步发掘。
知识库原理是在搜索后,生成一些提示信息插入到对话里面,这样知识库的数据就被模型知道了。rtst模式计算语义并在本地数据库中匹配;fess模式(相当于本地搜索引擎)和bing模式均调用搜索引擎搜索获取答案。
为防止爆显存和受限于模型理解能力,插入的数据不能太长,所以有字数和条数限制,这一问题可通过知识库增强Auto解决。
正常使用中,勾选右上角知识库即开启知识库。
有以下几种方案:
使用sentence_transformers+faiss进行索引、匹配,并连同上下文返回。目前支持txt和pdf格式。
支持预先构建索引和运行中构建,其中,预先构建索引强制使用cuda,运行中构建根据config.yml(复制example.config.yml)中rtst段的device(embedding运行设备)决定,对于显存小于12G的用户建议使用CPU。
Windows预先构建索引运行:plugins/buils_rtst_default_index.bat。
Linux直接使用wenda环境执行 python plugins/gen_data_st.py
需要将模型下载并放置在model文件夹中,并将txt格式的语料放置在txt文件夹中。
闻达用户"帛凡"训练并提供了权重合并模型和lora权重文件,详细信息请见https://huggingface.co/fb700/chatglm-fitness-RLHF 。使用该模型或lora权重文件,与chatglm-6b、chatglm2-6b、百川等模型相比,在闻达知识库平台中的总结能力可获得显著提升。
在本机使用默认端口安装fess后可直接运行。否则需修改config.yml(复制example.config.yml)中fess_host的127.0.0.1:8080为相应值。FESS安装教程
[图片1] [图片2] [图片3]
安装utool工具,uTools是一个极简、插件化的桌面软件,可以安装各种使用nodejs开发的插件。您可以使用插件对闻达的知识库进行数据清洗。请自行安装以下推荐插件:
运行:run_GLM6B.bat。
模型位置等参数:修改config.yml(复制example.config.yml)。
默认参数在GTX1660Ti(6G显存)上运行良好。
支持torch和cpp两种后端实现,运行:run_rwkv.bat。
模型位置等参数:见config.yml(复制example.config.yml)。
可使用内置脚本对模型量化,运行:cov_torch_rwkv.bat。此操作可以加快启动速度。
在安装vc后支持一键启动CUDA加速,运行:run_rwkv_with_vc.bat。强烈建议安装!!!
可使用内置脚本对torch版模型转换和量化。运行:cov_ggml_rwkv.bat。
设置strategy诸如"Q8_0->8"即支持量化在cpu运行,速度较慢,没有显卡或者没有nvidia显卡的用户使用。
注意:默认windows版本文件为AVX2,默认Linux版本文件是在debian sid编译的,其他linux发行版本未知。
可以查看:saharNooby/rwkv.cpp,下载其他版本,或者自行编译。
pip install FlagAI。注意FlagAI依赖很多旧版本的包,需要自己编译,所以如果想基于python3.11运行或者想在一个环境同时跑其他模型,建议去下懒人包run_Aquila.bat。模型位置等参数:见config.yml(复制example.config.yml)。注意模型要在这里下:https://model.baai.ac.cn/model-detail/100101
项目调用闻达的api接口实现类似于new bing的功能。技术栈:vue3 + element-plus + ts [图片4]
通过宏,调用闻达HTTP API [图片5]
[Star History Chart]


全球首个AI音乐社区
音述AI是全球首个AI音乐社区,致力让每个人都能用音乐表达自我。音述AI提供零门槛AI创作工具,独创GETI法则帮助用户精准定义音乐风格,AI润色功能支持自动优化作品质感。音述AI支持交流讨论、二次创作与价值变现。针对中文用户的语言习惯与文化背景进行专门优化,支持国风融合、C-pop等本土音乐标签,让技术更好地承载人文表达。


阿里Qoder团队推出的桌面端AI智能体
QoderWork 是阿里推出的本地优先桌面 AI 智能体,适配 macOS14+/Windows10+,以自然语言交互实现文件管理、数据分析、AI 视觉生成、浏览器自动化等办公任务,自主拆解执行复杂工作流,数据本地运行零上传,技能市场可无限扩展,是高效的 Agentic 生产力办公助手。


一站式搞定所有学习需求
不再被海量信息淹没,开始真正理解知识。Lynote 可摘要 YouTube 视频、PDF、文章等内容。即时创建笔记,检测 AI 内容并下载资料,将您的学习效率提升 10 倍。


为AI短剧协作而生
专为AI短剧协作而生的AniShort正式发布,深度重构AI短剧全流程生产模式,整合创意策划、制作执行、实时协作、在线审片、资产复用等全链路功能,独创无限画布、双轨并行工业化工作流与Ani智能体助手,集成多款主流AI大模型,破解素材零散、版本混乱、沟通低效等行业痛点,助力3人团队效率提升800%,打造标准化、可追溯的AI短剧量产体系,是AI短剧团队协同创作、提升制作效率的核心工具。


能听懂你表达的视频模型
Seedance two是基于seedance2.0的中国大模型,支持图像、视频、音频、文本四种模态输入,表达方式更丰富,生成也更可控。


国内直接访 问,限时3折
输入简单文字,生成想要的图片,纳米香蕉中文站基于 Google 模型的 AI 图片生成网站,支持文字生图、图生图。官网价格限时3折活动


职场AI,就用扣子
AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!


多风格AI绘画神器
堆友平台由阿里巴巴设计团队创建,作为一款AI驱动的设计工具,专为设计师提供一站式增长服务。功能覆盖海量3D素材、AI绘画、实时渲染以及专业抠图,显著提升设计品质和效率。平台不仅提供工具,还是一个促进创意交流和个人发展的空间,界面友好,适合所有级别的设计师和创意工作者。


零代码AI应用开发平台
零代码AI应用开发平台,用户只需一句话简单描述需求,AI能自动生成小程序、APP或H5网页应用,无需编写代码。


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号