大语言模型:精选AI工具、网站与开源项目

大语言模型

ALCE: 让大语言模型生成带引用的文本

ALCE: 让大语言模型生成带引用的文本

本文介绍了普林斯顿大学研究团队开发的ALCE项目,该项目旨在使大语言模型能够生成带有准确引用的文本。文章详细阐述了ALCE的背景、功能、数据集、评估方法以及基线模型的实现,为自然语言处理领域的研究者和开发者提供了宝贵的参考。

ALCE大语言模型自动引用文本生成评估基准Github开源项目
MCTSr: 数学作为大语言模型的黑盒子

MCTSr: 数学作为大语言模型的黑盒子

探索使用蒙特卡洛树搜索方法提升大语言模型数学解题能力的创新研究,实现接近GPT-4水平的数学奥林匹克解题能力。

MCTSr数学黑盒大语言模型数学奥林匹克Monte Carlo树搜索Github开源项目
InstructionWild: 打造更大更多样的指令数据集

InstructionWild: 打造更大更多样的指令数据集

InstructionWild项目旨在创建一个更大、更多样化的指令数据集,以促进大型语言模型的研究与发展。该项目收集了来自实际用户的高质量指令,涵盖了多种语言和任务类型,为提升AI模型的能力提供了宝贵的训练资源。

InstructWild指令数据集ChatGPTAI训练大语言模型Github开源项目
商业流程外包(BPO)的全面解析:定义、优势与发展趋势

商业流程外包(BPO)的全面解析:定义、优势与发展趋势

商业流程外包(BPO)作为一种重要的商业实践,正在revolutionizing全球商业运营模式。本文全面剖析BPO的定义、应用领域、优势及未来发展趋势,为企业决策者提供深入洞察。

BPO大语言模型提示词优化模型对齐无需训练Github开源项目
RedPajama-Data-v2: 一个包含30万亿个令牌的开放数据集,用于训练大型语言模型

RedPajama-Data-v2: 一个包含30万亿个令牌的开放数据集,用于训练大型语言模型

RedPajama-Data-v2是一个大规模开放数据集,包含30万亿个经过过滤和去重的令牌,涵盖5种语言,用于训练大型语言模型。该数据集还提供了40多个预计算的数据质量注释,可用于进一步筛选和权重计算。

RedPajama-Data-v2大语言模型开放数据集自然语言处理数据质量Github开源项目
Gemma: Google DeepMind推出的开源大语言模型家族

Gemma: Google DeepMind推出的开源大语言模型家族

Gemma是Google DeepMind基于Gemini技术推出的开源大语言模型家族,旨在为AI开发者提供轻量级、高性能的语言模型选择。本文全面介绍Gemma模型的特点、应用场景及使用方法。

Gemma大语言模型Google DeepMind开源权重JAXGithub开源项目
CritiqueLLM:面向大型语言模型生成评估的信息丰富的批评生成模型

CritiqueLLM:面向大型语言模型生成评估的信息丰富的批评生成模型

CritiqueLLM是一个创新的语言模型评估工具,旨在为大型语言模型的生成结果提供详细、信息丰富的批评性评价。它通过生成具有洞察力的批评来评估模型输出的质量,为模型开发者和研究人员提供了宝贵的反馈。

CritiqueLLM大语言模型评估自然语言处理人工智能Github开源项目
PubSec-Info-Assistant: 基于Azure OpenAI服务的信息助手加速器

PubSec-Info-Assistant: 基于Azure OpenAI服务的信息助手加速器

PubSec-Info-Assistant是一个由Microsoft开发的开源项目,旨在展示Azure OpenAI服务与其他Azure服务的集成能力,为公共部门客户提供一个端到端的基线自定义检索增强生成(RAG)模式解决方案。

Azure AI SearchOpenAIRAG信息助手大语言模型Github开源项目
LLaVA-Med: 革命性的生物医学大规模语言与视觉助手

LLaVA-Med: 革命性的生物医学大规模语言与视觉助手

LLaVA-Med是一个为生物医学领域打造的大规模语言与视觉助手,通过创新的课程学习方法,仅用一天时间就实现了接近GPT-4级别的多模态对话能力,为生物医学研究与应用开辟了新的可能。

LLaVA-Med多模态生物医学大语言模型视觉问答Github开源项目
BitNet: 用1比特变换器缩放大型语言模型

BitNet: 用1比特变换器缩放大型语言模型

BitNet是一种创新的神经网络架构,通过使用1比特权重来显著减少大型语言模型的内存占用和能耗,同时保持竞争性能。本文详细介绍了BitNet的核心概念、实现方法及其在自然语言处理领域的应用前景。

BitNet1比特变换器大语言模型PyTorch实现模型压缩Github开源项目
CMLM-ZhongJing: 首个中医大语言模型的突破性进展

CMLM-ZhongJing: 首个中医大语言模型的突破性进展

CMLM-ZhongJing是一个专为传统中医领域打造的预训练大语言模型,它通过创新的训练方法和丰富的中医知识库,为中医诊断和治疗提供了全新的智能辅助工具。本文深入探讨了CMLM-ZhongJing的开发背景、技术特点和应用前景。

CMLM-ZhongJing中医大语言模型指令数据模型训练Github开源项目
LoftQ: 提升大语言模型量化微调效果的创新方法

LoftQ: 提升大语言模型量化微调效果的创新方法

LoftQ是一种新的量化感知型LoRA微调方法,能够在低比特量化的同时保持模型性能,让开发者可以在有限的计算资源下高效地微调大语言模型。

LoftQ量化大语言模型微调LoRAGithub开源项目
远程感知多模态大语言模型:技术现状与未来趋势

远程感知多模态大语言模型:技术现状与未来趋势

本文全面介绍了远程感知多模态大语言模型(RS-MLLMs)的最新研究进展,包括模型架构、数据集、评测基准等方面,并探讨了该领域的未来发展方向。文章旨在为研究人员和从业者提供一个关于RS-MLLMs的综合性概述。

大语言模型遥感多模态视觉语言人工智能Github开源项目
AQLM: 通过加法量化实现大型语言模型的极限压缩

AQLM: 通过加法量化实现大型语言模型的极限压缩

AQLM是一种新型的语言模型压缩技术,通过加法量化可以将模型大小压缩到原来的2比特,同时保持接近原始模型的性能。本文介绍了AQLM的原理、应用和最新进展。

AQLM大语言模型量化推理PyTorchGithub开源项目
PiSSA: 大型语言模型的主成分奇异值和奇异向量自适应方法

PiSSA: 大型语言模型的主成分奇异值和奇异向量自适应方法

PiSSA是一种新型参数高效的大语言模型微调方法,通过优化模型的主要奇异值和奇异向量来实现更快的收敛和更好的性能。本文详细介绍了PiSSA的原理、优势及其在多个基准测试中的出色表现。

PiSSA参数高效微调大语言模型低秩适应奇异值分解Github开源项目
计算PyTorch模型的FLOPs:calflops工具详解

计算PyTorch模型的FLOPs:calflops工具详解

calflops是一个强大的工具,可以计算各种PyTorch神经网络模型(包括CNN、RNN、Transformer等)的FLOPs、MACs和参数数量。本文详细介绍了calflops的使用方法和主要功能。

calflopsFLOPs计算神经网络Hugging Face大语言模型Github开源项目
Azure开放数据集:推动机器�学习和研究的公共数据资源

Azure开放数据集:推动机器学习和研究的公共数据资源

Azure开放数据集是Microsoft Azure平台上的一项创新服务,为研究人员和开发者提供了丰富的公共数据资源,旨在加速机器学习模型的开发和数据分析工作。本文将全面介绍Azure开放数据集的特点、应用场景以及如何使用这一强大的数据工具。

AzureMicrosoft虚拟机函数计算大语言模型Github开源项目
Awesome-LLMs-Datasets: 大型语言模型数据集全面概述

Awesome-LLMs-Datasets: 大型语言模型数据集全面概述

本文全面介绍了大型语言模型(LLMs)相关的各类数据集,包括预训练语料库、指令微调数据集、偏好数据集、评估数据集等,为 LLMs 研究者提供了宝贵的数据资源参考。

LLMs数据集大语言模型预训练语料库指令微调数据集评估数据集Github开源项目
Mini-Gemini:挖掘多模态视觉语言模型的潜力

Mini-Gemini:挖掘多模态视觉语言模型的潜力

Mini-Gemini是一个强大的多模态AI框架,能够同时进行图像理解、推理和生成。本文详细介绍了Mini-Gemini的架构、训练过程、评估结果以及使用方法,展示了其在多个视觉-语言任务上的卓越表现。

Mini-Gemini多模态视觉语言模型AI绘图大语言模型图像理解Github开源项目
ControlLLM: 通过图搜索增强大型语言模型的工具使用能力

ControlLLM: 通过图搜索增强大型语言模型的工具使用能力

ControlLLM是一个创新框架,能够让大型语言模型利用多模态工具解决复杂的现实世界任务。该框架通过任务分解、图搜索和执行引擎三大核心组件,克服了工具调用中的多项挑战,在图像、音频和视频处理等多样化任务中展现出优异的准确性、效率和versatility。

ControlLLM大语言模型多模态工具图搜索任务分解Github开源项目