Curated Transformers是一个为PyTorch提供最先进Transformer模型的库,它由一系列可重用组件构建而成,支持多种流行的模型架构,并具有易用性、可扩展性和教育价值等特点。
AIConfig是一个创新的开源框架,旨在简化生产级AI应用的开发过程。它通过将AI提示、模型和参数作为可版本控制的JSON配置进行管理,实现了AI行为与应用代码的分离,为开发者提供了一种流畅高效的AI开发工作流。
本文全面介绍了日本语言模型(LLM)的发展现状,包括各类模型的特点、应用场景及评估基准,并对未来发展趋势进行了展望。
LangChain Extract是一个基于LangChain和大语言模型的开源项目,旨在提供简单易用的信息提取功能。它可以从文本和文件中提取结构化信息,支持自定义提取模式,并提供API接口方便集成。
这是一门关于大型语言模型及其应用的免费实践课程,通过动手项目帮助学习者掌握LLM相关技术。课程涵盖了从基础到高级的多个主题,包括OpenAI API、Hugging Face、向量数据库、LangChain等热门工具和技术。
ModelFusion是一个用于将AI模型集成到JavaScript和TypeScript应用程序中的抽象层,为常见操作如文本流式处理、对象生成和工具使用提供统一的API。它提供了支持生产环境的功能,包括可观察性钩子、日志记录和自动重试。
Vectara公司推出了一个开放的大型语言模型幻觉排行榜,通过评估模型在文档摘要任务中产生幻觉的倾向,为AI模型的事实一致性提供了一个重要的衡量标准。
本文全面介绍了基于大型语言模型(LLM)的智能代理的最新研究进展,包括自主任务解决、多代理协作、框架与开源项目等方面,并探讨了当前面临的挑战和未来发展方向。
Lagent是一个轻量级开源框架,可以帮助用户高效地构建基于大语言模型的智能代理。它提供了统一的接口、流式输出等功能,并支持多种模型和工具的集成,是开发LLM应用的理想选择。
本文全面介绍了Awesome-Code-LLM项目,这是一个精心策划的代码大语言模型研究资源列表。文章深入探讨了该领域的最新进展、主要模型和关键应用,为研究人员和开发者提供了宝贵的参考。
Taiwan-LLM是一个专为台湾传统中文设计的大语言模型,旨在弥合语言差异,为台湾用户提供更贴近本土文化的AI语言服务。本文将深入探讨Taiwan-LLM的开发背景、技术特点及其在台湾本土应用中的重要意义。
Skywork是由昆仑万维集团·天工团队开发的一系列开源大语言模型,包括Skywork-13B-Base等多个模型,在多项评测中展现出同等规模最佳性能。
本文全面汇总了CVPR 2024会议收录的计算机视觉领域最新研究论文及其开源代码,涵盖图像分类、目标检测、语义分割等多个研究方向,为研究人员提供了便捷的学习参考。
bert4torch是一个基于PyTorch的transformers库,提供了优雅简洁的API接口,支持加载各种预训练模型进行微调,并提供丰富的示例和实用功能。
DB-GPT-Hub是一个实验性项目,旨在利用大型语言模型(LLMs)实现文本到SQL的解析,通过数据收集、预处理、模型选择和微调等过程,提高Text-to-SQL能力并降低模型训练成本。
Safe RLHF是一种新型的人类价值对齐算法,通过显式解耦人类对有用性和无害性的偏好,有效避免了众包工人对这两个目标之间张力的困惑,并允许训练单独的奖励和成本模型。该方法将大语言模型的安全性问题形式化为在满足特定成本约束的同时最大化奖励函数的优化任务。
本文深入探讨了Prompt-In-Context Learning技术,介绍了其基本概念、应用方法和最新进展,并分析了该技术对大语言模型能力提升的重要意义。
本文介绍了基于Meta最新发布的Llama-3开发的中文开源大语言模型Chinese-LLaMA-Alpaca-3项目,包括模型特点、下载地址、推理部署方法以及模型效果评测等内容。
本文全面介绍了垂直领域大语言模型的最新进展,包括医疗、法律、金融等领域的开源模型,以及相关数据集和评测基准,为研究人员和开发者提供了宝贵的参考资源。
本文全面综述了大型语言模型(LLM)智能体的最新研究进展,涵盖个性化、记忆、规划等关键能力,以及多智能体系统的发展。文章深入探讨了LLM智能体在各个方面的创新与挑战,为读者提供了该领域的全面认识。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号