最佳Github AI工具与开源项目集锦

Kor: 革新性的LLM提取框架

Kor: 革新性的LLM提取框架

Kor是一个强大的Python库,旨在简化从非结构化文本中提取结构化信息的过程。它利用大型语言模型(LLM)的能力,为开发者提供了一个灵活而高效的工具,用于构建复杂的信息提取系统。

KorLangChainpydanticLLM数据抽取Github开源项目
OpenLLMetry: 开源LLM应用可观测性解决方案

OpenLLMetry: 开源LLM应用可观测性解决方案

OpenLLMetry是一个基于OpenTelemetry的开源项目,为LLM应用提供全面的可观测性能力。它可以无缝集成到现有的可观测性解决方案中,帮助开发者更好地监控和调试LLM应用。

OpenLLMetryOpenTelemetryTraceloopLLM应用观测性Github开源项目
LearnPrompt:您的AI交互指南 - 掌握提示工程的艺术

LearnPrompt:您的AI交互指南 - 掌握提示工程的艺术

LearnPrompt是一个免费开源的AIGC课程平台,提供全面的提示工程和AI交互学习资源,帮助用户有效地与ChatGPT等AI模型进行沟通,释放AI的全部潜力。

LearnPromptChatGPTStable DiffusionAI声音&音乐大模型微调Github开源项目
深入探讨大语言模型的越狱攻击:挑战、影响与防御策略

深入探讨大语言模型的越狱攻击:挑战、影响与防御策略

本文深入分析了大语言模型(LLM)面临的越狱攻击问题,探讨了这类攻击的原理、影响及防御策略,旨在提高对LLM安全性的认识,推动更安全可靠的AI系统开发。

JailbreakHubACM CCS 2024大语言模型数据集伦理Github开源项目
深入探索LLM生成JSON的技术与工具:awesome-llm-json项目解析

深入探索LLM生成JSON的技术与工具:awesome-llm-json项目解析

本文深入解析了awesome-llm-json项目,探讨了大型语言模型(LLM)生成JSON和结构化输出的各种技术、工具和资源,为开发者和研究者提供了全面的指南。

LLMJSONfunction callingstructured outputsPydanticGithub开源项目
LLMs相关知识及面试题全面解析

LLMs相关知识及面试题全面解析

本文全面介绍了大语言模型(LLMs)的相关知识,包括基础概念、模型架构、训练方法等,并整理了常见的LLM面试题目。文章内容丰富详实,是LLM学习和面试的重要参考资料。

LLM大语言模型Transformer分布式训练微调Github开源项目
LoRAX: 革新大规模语言模型服务的多适配器推理框架

LoRAX: 革新大规模语言模型服务的多适配器推理框架

LoRAX是一个创新的多LoRA适配器推理框架,能够在单个GPU上高效服务数千个微调模型,大幅降低服务成本,同时保持高吞吐量和低延迟。本文深入介绍了LoRAX的核心特性、技术原理和使用方法,展示了其在大规模语言模型服务中的巨大潜力。

LoRAX多模型推理高通量低延迟生产准备Github开源项目
NVIDIA GenerativeAIExamples:加速生成式AI工作流的开源项目

NVIDIA GenerativeAIExamples:加速生成式AI工作流的开源项目

探索NVIDIA推出的GenerativeAIExamples项目,这是一个为加速基础设施和微服务架构优化的生成式AI参考工作流集合,旨在推动AI技术的创新与应用。

NVIDIARAGLangChainTritonNeMoGithub开源项目
Eidos: 一个革命性的个人数据管理框架

Eidos: 一个革命性的个人数据管理框架

Eidos是一个创新的开源项目,旨在为用户提供一个全面的个人数据管理解决方案。它集成了离线存储、AI功能和高度可扩展性,让用户能够在一个地方管理和利用自己的终身数据。

Eidos数据管理离线支持AI功能浏览器兼容性Github开源项目
LLM微调技术全面指南:方法、最佳实践与应用

LLM微调技术全面指南:方法、最佳实践与应用

本文全面介绍了大型语言模型(LLM)的微调技术,包括微调的概念、方法、最佳实践以及实际应用。文章深入探讨了微调的重要性、主要方法如监督微调和人类反馈强化学习,以及微调过程中的数据准备、参数选择等关键步骤。同时还介绍了微调在情感分析、聊天机器人等领域的具体应用。

PEFTLoRAHugging Face大型语言模型微调Github开源项目
AgentBench: 评估大语言模型作为智能体的全面基准测试

AgentBench: 评估大语言模型作为智能体的全面基准测试

AgentBench是一个创新的多维度基准测试,旨在全面评估大语言模型(LLMs)作为智能体在交互环境中的推理和决策能力。本文深入介绍了AgentBench的设计理念、评估环境、实验结果以及对LLM智能体发展的洞察。

AgentBenchLLM-as-Agent评估框架测试结果任务设置Github开源项目
PyTorch实用教程(第二版):从入门到工业落地的全面指南

PyTorch实用教程(第二版):从入门到工业落地的全面指南

《PyTorch实用教程》(第二版)是一本全面的深度学习实战指南,涵盖了PyTorch基础、计算机视觉、自然语言处理、大语言模型以及推理部署等内容,旨在帮助读者快速掌握PyTorch,并具备独立开发AI应用的能力。

PyTorch深度学习计算机视觉自然语言处理大语言模型Github开源项目
Graph of Thoughts: 解决复杂问题的创新框架

Graph of Thoughts: 解决复杂问题的创新框架

Graph of Thoughts (GoT)是一种创新的框架,旨在利用大型语言模型(LLM)解决复杂问题。它通过将问题建模为操作图(Graph of Operations),并使用LLM作为执行引擎,为解决复杂任务提供了一种结构化的方法。本文将深入探讨GoT框架的原理、实现和应用,展示其在增强LLM推理能力方面的巨大潜力。

Graph of ThoughtsLarge Language ModelPython机器学习复杂问题求解Github开源项目
Medusa: 加速大语言模型生成的简单框架

Medusa: 加速大语言模型生成的简单框架

Medusa是一个简单的框架,通过多个解码头来加速大语言模型(LLM)的生成过程。它旨在解决现有加速技术如推测解码的痛点,包括对优质草稿模型的需求、系统复杂性以及在使用基于采样的生成时的低效问题。

Medusa加速LLM生成多解码头性能优化Github开源项目
Chinese-Llama-2-7b: 开源可商用的中文大语言模型

Chinese-Llama-2-7b: 开源可商用的中文大语言模型

Chinese-Llama-2-7b是基于Llama-2的中文大语言模型,具有强大的中文理解和生成能力,完全开源且可商用,为中文自然语言处理领域带来了新的机遇。

Chinese Llama 2 7BLlama2HuggingFace模型开源量化模型Github开源项目
TimeGPT: 革命性的时间序列预测与异常检测基础模型

TimeGPT: 革命性的时间序列预测与异常检测基础模型

TimeGPT是Nixtla公司开发的首个时间序列预测和异常检测基础模型,通过先进的生成式预训练变换器技术,实现了高效准确的多领域时间序列分析,为企业和研究人员提供了强大而易用的时序数据分析工具。

TimeGPT时间序列预测异常检测零样本推理Github开源项目
Zep: 为AI助手打造的长期记忆解决方案

Zep: 为AI助手打造的长期记忆解决方案

Zep是一个专为AI助手应用设计的长期记忆服务,能够帮助AI助手回忆过去的对话,同时减少幻觉、延迟和成本。

ZepAI助理长期记忆对话历史嵌入式消息Github开源项目
Mixtral-8x7B模型的高效推理:Mixtral Offloading技术解析

Mixtral-8x7B模型的高效推理:Mixtral Offloading技术解析

Mixtral Offloading是一项创新技术,通过混合量化和专家卸载策略,实现了Mixtral-8x7B大型语言模型在普通硬件上的高效推理。本文深入探讨了该技术的工作原理、实现方法和潜在影响。

Mixtral-8x7BHQQMoEGPUCPUGithub开源项目
Chronos: 革命性的时间序列预测模型

Chronos: 革命性的时间序列预测模型

Chronos是亚马逊科学团队开发的一种基于语言模型架构的预训练时间序列预测模型。它通过将时间序列转换为token序列,并使用交叉熵损失训练语言模型,实现了高精度的概率预测。Chronos在多个基准数据集上展现出了卓越的零样本预测性能,为时间序列预测领域带来了新的突破。

Chronos时间序列语言模型AutoGluon预训练Github开源项目
DeepFlow: 革新云原生和AI应用的可观测性解决方案

DeepFlow: 革新云原生和AI应用的可观测性解决方案

DeepFlow利用eBPF和WebAssembly技术实现零代码和全栈可观测性,为云原生和AI应用提供持续创新能力,成为新一代分布式追踪和性能分析的领先平台。

DeepFloweBPF云原生AI应用智能编码Github开源项目