llama.cpp(默认)、exllama或transformers的封装器。 & oobabooga/text-generation-webui的扩展。
为Telegram聊天提供各种额外功能,如按钮、前缀、语音/图像生成。
如何安装(独立应用):
git clone https://github.com/innightwolfsleep/llm_telegram_bot
pip install -r llm_telegram_bot\requirements_app.txt
如何运行(独立应用):
.env.example
)或configs\telegram_token.txt
文件models\
configs\app_config.json
中设置model_path为你的模型路径run.cmd
(Windows)或run.sh
(Linux)(可选)使用exllama:
git clone https://github.com/turboderp/exllama source\generators\exllama
pip install -r source\generators\exllama\requirements.txt
(可选)使用exllamav2:
git clone https://github.com/turboderp/exllamav2 source\generators\exllamav2
cd source\generators\exllamav2
python setup.py install --user
(可选)要使用GPU加速的llama.cpp,请按照指南重新安装abetlen/llama-cpp-python:llama-cpp-python#installation-with-hardware-acceleration或Windows指南
如何安装(扩展模式):
cmd_windows.bat
或cmd_linux.sh
以启用虚拟环境git clone https://github.com/innightwolfsleep/text-generation-webui-telegram_bot extensions\telegram_bot
pip install -r extensions\telegram_bot\requirements_ext.txt
如何使用(扩展模式):
extensions\telegram_bot\configs\telegram_token.txt
文件或oobabooga环境中--api --extension telegram_bot
如何安装/使用(Google Colab):
(可选)如果遇到网络问题,请在app_config.json
中将proxy_url
更改为你自己的代理。例如:https://127.0.0.1:10808
功能:
配置:
app_config.json
- 作为独立应用运行的配置(使用run.sh
或run.cmd
)
ext_config.json
- 作为oobabooga/text-generation-webui扩展运行的配置
x_config.json
bot_mode=admin
特定的机器人模式。admin用于个人使用
- admin - 机器人以聊天模式回答所有人。所有按钮(包括全局设置)对所有人可用。(默认)
- chat - 机器人以聊天模式回答所有人。所有按钮(除全局设置外)对所有人可用。(推荐用于聊天)
- chat-restricted - 与chat相同,但用户不能更改默认角色
- persona - 与chat-restricted相同,但重置/重新生成/删除消息功能也不可用。
- notebook - 笔记本模式。不会自动添加前缀,只用"\n"分隔用户和机器人消息。限制与聊天模式相同。
- query - 与notebook相同,但没有历史记录。每个问题对机器人来说都像新对话,不受之前问题影响
user_name_template=
用户名模板,适用于群聊。
如果为空,机器人总是获取用户的默认名称 - You。默认情况下,即使在群聊中,机器人也将所有用户视为单一实体"You"
但可以通过模板强制机器人识别Telegram用户名:
FIRSTNAME - 用户名(Jon)
LASTNAME - 用户姓(Dow)
USERNAME - 用户昵称(superguy)
ID - 用户ID(999999999)
因此,user_name_template="USERNAME FIRSTNAME ID"转换为用户名"superguy Jon 999999999"
但如果你计划使用模板和群聊 - 你应该在stopping_strings中添加"\n"符号以防止机器人冒充!!!
generator_script=GeneratorLlamaCpp
生成器脚本名称(generators文件夹):
- generator_exllama - 基于llama-cpp-python,推荐
- generator_llama_cpp - 基于llama-cpp-python,推荐
- generator_langchain_llama_cpp - 基于langchain+llama
- generator_transformers - 基于transformers,未经测试
- generator_text_generator_webui_openapi - 使用oobabooga/text-generation-webui OpenAPI扩展
- (已损坏) generator_text_generator_webui - 集成到oobabooga/text-generation-webui的模块(目前已损坏:()
- (已过时) generator_text_generator_webui_api - 使用oobabooga/text-generation-webui API(旧API版本)
model_path=models\llama-13b.ggml.q4_0.gguf
模型文件或目录路径
characters_dir_path=characters
default_char=Example.yaml
默认角色和角色文件夹路径
presets_dir_path=presets
default_preset=Shortwave.yaml
默认生成预设和预设文件夹路径
model_lang=en
user_lang=en
默认模型和用户语言。用户语言可以由用户个别切换。
html_tag_open=<pre>
html_tag_close=</pre>
TG中机器人回答的标签。默认为预格式化文本(pre)
history_dir_path=history
用户历史记录目录
token_file_path=configs\\telegram_token.txt
机器人令牌。向https://t.me/BotFather询问
admins_file_path=configs\\telegram_admins.txt
ID在admins_file中的用户切换到管理员模式,可以选择全局设置(生成设置和模型)
users_file_path=configs\\telegram_users.txt
如果users_file中只有一个ID - 机器人将忽略除此ID(多个ID)外的所有用户。即使是管理员也会被忽略
generator_params_file_path=configs\\telegram_generator_params.json
默认文本生成参数,被选择的预设覆盖
user_rules_file_path=configs\\telegram_user_rules.json
用户规则矩阵
telegram_sd_config=configs\\telegram_sd_config.json
Stable Diffusion API配置
stopping_strings=<END>,<START>,end{code}
生成设置 - 哪些文本模式停止文本生成?如果机器人发送太多文本,请添加"\n"。
eos_token=None
生成设置
translation_as_hidden_text=on
如果为"on"且模型/用户语言不同 - 翻译将写在隐藏文本下。如果为"off" - 翻译不隐藏,消息中没有原文。
sd_api_url="http://127.0.0.1:7860"
Stable Diffusion API URL,需要使用"photo"前缀
proxy_url
用于避免提供商封锁
generator_params.json
生成器配置
sd_config.json
Stable Diffusion配置
telegram_admins.txt
强制使用管理员模式的用户ID列表。如果telegram_users不为空 - 也必须在telegram_users中!
telegram_users.txt
允许与机器人交互的用户ID(或群组ID)列表。如果为空 - 允许所有人
telegram_token.txt(你也可以使用.env替代)
Telegram机器人令牌
telegram_user_rules.json
各种机器人模式的按钮可见性配置
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学 生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。
openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号