Chinese-Mixtral-8x7B是一个基于Mixtral-8x7B进行中文扩词表训练的开源大语言模型。本文汇总了该项目的相关学习资源,帮助读者快速了解和使用这个模型。
llm-python是一个包含大型语言模型(LLMs)教程和示例代码的GitHub仓库,涵盖了langchain、openai、llamaindex、gpt、chromadb和pinecone等多个LLM相关工具的使用。本文汇总了该项目的主要学习资源,帮助开发者快速入门LLM应用开发。
LLMFlows是一个用于构建简单、明确和透明的大语言模型(LLM)应用程序的框架。本文汇总了LLMFlows的各类学习资源,帮助开发者快速入门和深入了解这个强大的LLM应用开发工具。
Attention Sinks 是一种能够让大型语言模型在不增加内存使用的情 况下,生成无限长度的连贯文本的新技术。本文介绍了 Attention Sinks 的基本原理、使用方法和相关资源。
本文整理了tanuki.py的相关学习资源,包括官方文档、教程、示例代码等,帮助开发者快速上手这个强大的LLM应用开发工具。
本文汇总了 vim-ai 插件的相关学习资源,包括项目介绍、安装使用教程、配置说明等,帮助读者快速上手这个为 Vim 和 Neovim 提供 AI 能力的强大工具。
本文汇总了Awesome-LM-SSP项目的各类学习资源,包括论文、工具、调研等,为研究大型语言模型安全性、隐私性和可靠性的读者提供全面的参考资料。