大语言模型:精选AI工具、网站与开源项目

大语言模型

PubSec-Info-Assistant: 基于Azure OpenAI服务的智能信息助手

PubSec-Info-Assistant: 基于Azure OpenAI服务的智能信息助手

PubSec-Info-Assistant是一个由微软开发的开源项目,旨在展示基于Azure OpenAI服务和其他Azure服务构建的智能信息助手系统。它利用检索增强生成(RAG)模式,结合Azure AI Search和GPT模型,为用户提供自然语言交互式问答体验。

Azure AI SearchOpenAIRAG信息助手大语言模型Github开源项目
LLaVA-Med: 一日训练的生物医学大型语言与视觉助手

LLaVA-Med: 一日训练的生物医学大型语言与视觉助手

LLaVA-Med是一个针对生物医学领域的大型语言与视觉AI助手,旨在实现类似GPT-4的多模态能力。该项目由微软研究院开发,通过创新的课程学习方法,仅用一天时间就训练出了一个强大的生物医学AI助手。

LLaVA-Med多模态生物医学大语言模型视觉问答Github开源项目
LLM2LLM: 一种革命性的大型语言模型性能提升方法

LLM2LLM: 一种革命性的大型语言模型性能提升方法

探索UC Berkeley、ICSI和LBNL研究人员提出的LLM2LLM技术,这是一种创新的迭代数据增强策略,旨在通过合成数据来提升大型语言模型在低数据环境下的性能。

LLM2LLM大语言模型数据增强迭代学习GSM8KGithub开源项目
BitNet: 革命性的1比特Transformer模型

BitNet: 革命性的1比特Transformer模型

BitNet是一种创新的1比特Transformer架构,旨在为大型语言模型提供高效的计算和存储解决方案。通过将传统32位浮点数权重量化为1比特,BitNet显著减少了模型大小和计算复杂度,同时保持了出色的性能。本文深入探讨了BitNet的核心概念、技术细节及其在自然语言处理领域的潜在应用。

BitNet1比特变换器大语言模型PyTorch实现模型压缩Github开源项目
TRL: 全栈式语言模型微调与对齐框架

TRL: 全栈式语言模型微调与对齐框架

TRL是一个专门用于微调和对齐大型语言模型的全栈工具库,支持监督微调、奖励建模、PPO等多种方法,为开发者提供了高效、灵活的模型训练解决方案。

TRL微调大语言模型强化学习TransformerGithub开源项目
Yi-1.5: 开源大语言模型的新突破

Yi-1.5: 开源大语言模型的新突破

Yi-1.5是01.AI公司推出的升级版开源大语言模型,在代码、数学、推理和指令跟随等方面表现出色,为AI技术发展带来新的可能。

Yi-1.5大语言模型开源人工智能自然语言处理Github开源项目
Multi-LLM-Agent:小型语言模型的多智能体系统

Multi-LLM-Agent:小型语言模型的多智能体系统

Multi-LLM-Agent项目通过多个小型语言模型的协作,实现了与大型封闭源语言模型相媲美的工具学习能力,为小型语言模型在复杂任务中的应用提供了新的可能。

Multi-LLM Agentα-UMi工具学习大语言模型人工智能Github开源项目
GLM-4: 智谱AI推出的开源多语言多模态对话模型

GLM-4: 智谱AI推出的开源多语言多模态对话模型

GLM-4是智谱AI最新推出的开源大语言模型系列,包括GLM-4-9B基础模型、GLM-4-9B-Chat对话模型、GLM-4-9B-Chat-1M长文本模型以及GLM-4V-9B多模态模型,在多项基准测试中表现优异,支持26种语言,具备强大的对话、推理和多模态能力。

GLM-4大语言模型AI对话多模态长文本Github开源项目
LLaVA-NeXT: 开放式大型多模态模型的新突破

LLaVA-NeXT: 开放式大型多模态模型的新突破

LLaVA-NeXT是一个开放源代码的大型多模态模型,在单图像、多图像和视频等多个基准测试上达到了最先进的性能,有时甚至可以与顶级商业模型相媲美。本文介绍了LLaVA-NeXT的最新进展、主要特点及其在多模态人工智能领域的重要意义。

LLaVA-NeXT多模态模型视觉语言模型AI助手大语言模型Github开源项目
RKNN-LLM:瑞芯��微AI芯片上的大语言模型部署解决方案

RKNN-LLM:瑞芯微AI芯片上的大语言模型部署解决方案

RKNN-LLM是瑞芯微推出的大语言模型软件栈,可帮助用户快速将AI模型部署到瑞芯微芯片上。本文详细介绍了RKNN-LLM的架构、功能特性、支持的平台和模型,以及如何使用该解决方案进行LLM的推理部署。

RKLLMAI模型部署Rockchip芯片模型转换大语言模型Github开源项目
ChatPLUG: 开创中文开放域对话系统的新纪元

ChatPLUG: 开创中文开放域对话系统的新纪元

ChatPLUG是一个创新的中文开放域对话系统,通过知识增强、个性化定制和多任务能力,为数字人应用提供了强大的语言模型支持。本文深入探讨了ChatPLUG的特点、应用方法及其在自然语言处理领域的重要意义。

ChatPLUG大语言模型对话系统个性化开源项目Github
LoftQ: 一种革新性的大语言模型量化与微调方法

LoftQ: 一种革新性的大语言模型量化与微调方法

LoftQ是一种新型的量化框架,可以同时对大语言模型进行量化和低秩初始化,显著提升下游任务性能,尤其在2比特和2/4混合精度量化等极具挑战性的场景下表现出色。

LoftQ量化大语言模型微调LoRAGithub开源项目
InternLM-Math: 开创数学推理新纪元的开源大语言模型

InternLM-Math: 开创数学推理新纪元的开源大语言模型

InternLM-Math是一个突破性的开源数学推理大语言模型,在形式化和非形式化数学推理方面都展现出卓越性能,为人工智能在数学领域的应用开辟了新的可能。

InternLM-Math数学推理大语言模型开源模型人工智能Github开源项目
PiSSA: 大语言模型的主成分奇异值和奇异向量适应方法

PiSSA: 大语言模型的主成分奇异值和奇异向量适应方法

PiSSA是一种新型的参数高效微调技术,通过优化大语言模型中的主要奇异值和奇异向量来实现快速收敛和卓越性能。本文深入探讨了PiSSA的原理、优势及其在多个基准测试中的出色表现。

PiSSA参数高效微调大语言模型低秩适应奇异值分解Github开源项目
InternEvo:高效长序列大语言模型训练框架

InternEvo:高效长序列大语言模型训练框架

InternEvo是一个开源的轻量级训练框架,旨在支持大规模预训练和微调,无需复杂依赖即可在上千GPU的大规模集群上高效训练大语言模型。

InternEvo大语言模型预训练框架性能优化开源项目Github
探索人工智能时代的提示工程:2023年度最佳提示集锦

探索人工智能时代的提示工程:2023年度最佳提示集锦

在大型语言模型(LLMs)不断发展的世界中,创建有效的提示已成为一项至关重要的技能。本文将带您深入了解GitHub上热门的promptoftheyear项目,探索各个领域中最具影响力的AI提示,展示了提示工程如何推动人工智能应用的创新与发展。

PromptAI大语言模型GPTChatGPTGithub开源项目
Qwen2: 阿里巴巴全新升级的大语言模型系列

Qwen2: 阿里巴巴全新升级的大语言模型系列

Qwen2是阿里巴巴云计算团队推出的最新一代大语言模型系列,包含多个规模的预训练和指令微调模型,在多项基准测试中展现出卓越的性能,为自然语言处理领域带来了新的突破。

Qwen2大语言模型自然语言处理人工智能模型训练Github开源项目
llama_cpp-rs: Rust语言的高性能LLM推理库

llama_cpp-rs: Rust语言的高性能LLM推理库

llama_cpp-rs是一个为Rust语言打造的高性能大语言模型推理库,它提供了安全、高级的Rust绑定,使开发者能够轻松地在CPU上运行基于GGUF格式的大型语言模型,无需机器学习经验即可快速上手。

llama_cpp-rsRust绑定大语言模型GGUFCPU运行Github开源项目
Azure公共数据集:释放云计算研究的潜力

Azure公共数据集:释放云计算研究的潜力

Microsoft Azure公共数据集是一个开放的资源库,为学术界和研究人员提供了宝贵的云计算工作负载数据。本文将深入探讨这个数据集的内容、意义和应用前景。

AzureMicrosoft虚拟机函数计算大语言模型Github开源项目
Awesome-LLMs-Datasets:大型语言模型数据集全面概述

Awesome-LLMs-Datasets:大型语言模型数据集全面概述

本文全面介绍了Awesome-LLMs-Datasets项目,对大型语言模型(LLMs)的各类数据集进行了系统总结和分类,涵盖预训练语料库、指令微调数据集、偏好数据集、评估数据集等多个维度,为LLMs研究者提供了宝贵的数据资源参考。

LLMs数据集大语言模型预训练语料库指令微调数据集评估数据集Github开源项目