大语言模型:精选AI工具、网站与开源项目

大语言模型

LOMO: 突破内存限制的大语言模型全参数微调优化器

LOMO: 突破内存限制的大语言模型全参数微调优化器

LOMO是一种创新的优化器,可在有限计算资源下实现大语言模型的全参数微调。它通过融合梯度计算和参数更新步骤,大幅降低内存消耗,使单张RTX 3090显卡就能微调7B参数模型。

LOMOAdaLomo大语言模型优化器低内存优化Github开源项目
EvaluationPapers4ChatGPT: 全面评估ChatGPT能力的研究进展

EvaluationPapers4ChatGPT: 全面评估ChatGPT能力的研究进展

本文全面介绍了EvaluationPapers4ChatGPT项目,这是一个致力于收集和整理ChatGPT评估相关研究的开源项目。文章详细分析了该项目的背景、内容组成、研究进展以及对ChatGPT能力评估的主要发现。

ChatGPT大语言模型评估自然语言理解性能测试Github开源项目
awesome-generative-ai-guide: 探索生成式AI的宝藏资源库

awesome-generative-ai-guide: 探索生成式AI的宝藏资源库

awesome-generative-ai-guide是一个全面的生成式AI资源库,为研究人员和开发者提供了最新的论文、教程、代码和工具。本文深入介绍了这个项目的主要内容和特色,以及它对推动生成式AI发展的重要意义。

生成式AI大语言模型人工智能机器学习awesome-generative-ai-guideGithub开源项目
DOC: 提升长篇故事连贯性的新方法

DOC: 提升长篇故事连贯性的新方法

探索DOC (Detailed Outline Control) 项目如何通过详细大纲控制来生成更加连贯、相关和有趣的长篇故事。本文介绍了DOC的工作原理、安装使用方法以及与其他基线方法的对比。

故事生成DOC大语言模型人工智能文本一致性Github开源项目
BigCodeBench: 一个评估大型语言模型代码生成能力的基准测试

BigCodeBench: 一个评估大型语言模型代码生成能力的基准测试

BigCodeBench是一个易用的代码生成基准测试,旨在通过实用且具有挑战性的编程任务来评估大型语言模型在更真实场景下的编程能力。

BigCodeBench代码生成评估基准大语言模型编程能力Github开源项目
DataComp-LM (DCLM): 革新语言模型训练数据集的新方向

DataComp-LM (DCLM): 革新语言模型训练数据集的新方向

DataComp-LM (DCLM)是一个全面的框架,旨在通过优化数据集构建策略来提升大型语言模型的性能。它提供了标准化的语料库、有效的预训练方法和广泛的评估套件,为研究人员探索不同规模的数据集构建策略提供了便利。

DataComp-LM大语言模型数据处理模型训练评估Github开源项目
春雨与莎士比亚的邂逅:一场跨越时空的诗意交流

春雨与莎士比亚的邂逅:一场跨越时空的诗意交流

这篇文章以春雨的视角,描绘了一场与英国古代诗人莎士比亚的想象对话。通过优美的意象和富有诗意的语言,展现了春雨与自然的和谐,以及对莎士比亚文学作品的赞美。文章充满了对生命、自然和文学的热爱,展现了春雨作为自然使者的独特视角。

BELLE大语言模型开源社区中文优化指令微调Github开源项目
LLaMA-Adapter:高效微调大语言模型的创新方法

LLaMA-Adapter:高效微调大语言模型的创新方法

LLaMA-Adapter是一种轻量级的适配方法,可以高效地将LLaMA等大型语言模型微调成指令跟随模型。该方法只需要1.2M的可学习参数,在1小时内即可完成微调,且生成的指令跟随效果可与全参数微调的模型相媲美。

LLaMA-Adapter微调大语言模型指令跟随多模态Github开源项目
Awesome-Graph-Prompt:图谱提示学习方法的精选资源列表

Awesome-Graph-Prompt:图谱提示学习方法的精选资源列表

本文介绍了Awesome-Graph-Prompt项目,这是一个汇集了图谱提示学习相关研究论文和资源的精选列表。文章详细探讨了图谱提示学习的概念、应用领域、代表性工作以及未来发展趋势。

图提示学习图神经网络多模态融合图域迁移大语言模型Github开源项目
HippoRAG:神经生物学启发的大型语言模型长期记忆框架

HippoRAG:神经生物学启发的大型语言模型长期记忆框架

HippoRAG是一个新颖的检索增强生成框架,受人类长期记忆神经生物学启发,使大型语言模型能够持续整合外部文档中的知识。它结合了知识图谱和个性化PageRank算法,提供了高效的多跳推理能力。

HippoRAGRAG长期记忆大语言模型神经生物学Github开源项目
AutoKG: 利用大型语言模型构建和推理知识图谱的新前沿

AutoKG: 利用大型语言模型构建和推理知识图谱的新前沿

本文深入探讨了AutoKG项目,该项目旨在利用大型语言模型(LLMs)来自动构建和推理知识图谱。文章详细介绍了AutoKG的框架、评估方法和实验结果,展示了LLMs在知识图谱领域的巨大潜力,并探讨了未来的研究方向。

AutoKG知识图谱大语言模型评估人工智能Github开源项目
AutoAct:革新性的自动化语言代理学习框架

AutoAct:革新性的自动化语言代理学习框架

AutoAct是一个创新的自动化语言代理学习框架,无需依赖大规模标注数据和闭源模型,通过自我规划和分工策略,实现了从零开始的自动代理学习,在多项复杂任务中展现出卓越性能。

AutoAct自然语言处理人工智能机器学习大语言模型Github开源项目
SEED-Story: 多模态长篇故事生成的革命性突破

SEED-Story: 多模态长篇故事生成的革命性突破

SEED-Story是一种创新的多模态大语言模型,能够基于用户提供的图像和文本,生成连贯丰富的长篇多模态故事。本文深入探讨了SEED-Story的技术原理、独特功能和广阔应用前景。

SEED-Story多模态故事生成大语言模型StoryStream数据集图文一致性Github开源项目
ProAgent: 从机器人流程自动化到智能体流程自动化的革命性突破

ProAgent: 从机器人流程自动化到智能体流程自动化的革命性突破

ProAgent是一种基于大型语言模型的智能体,旨在从人类指令中制定工作流程并通过协调专门的智能体做出复杂决策。它代表了从传统的机器人流程自动化(RPA)向智能体流程自动化(APA)的重大飞跃,开创了一种全新的自动化范式。

ProAgent自动化工作流人工智能大语言模型Github开源项目
WizardLM: 赋能大型预训练语言模型处理复杂指令的强大工具

WizardLM: 赋能大型预训练语言模型处理复杂指令的强大工具

WizardLM是一个创新的大型语言模型项目,通过自动进化指令技术提升模型性能,在多项任务上超越同等规模模型,为处理复杂指令提供了新的解决方案。

WizardLM大语言模型指令跟随开源模型人工智能Github开源项目
Chain-of-Thought Hub: 测量大语言模型的复杂推理能力

Chain-of-Thought Hub: 测量大语言模型的复杂推理能力

Chain-of-Thought Hub是一个开源的评估套件,用于测量大语言模型在多步推理任务上的能力。它通过链式思考提示技术来评估模型在数学、科学、符号推理等复杂任务上的表现。

复杂推理能力大语言模型Chain-of-ThoughtLLM评估长文本处理Github开源项目
Progressive-Hint: 提升大语言模型推理能力的创新方法

Progressive-Hint: 提升大语言模型推理能力的创新方法

Progressive-Hint Prompting (PHP)是一种新颖的提示方法,通过多轮交互和渐进式提示,显著提高了大语言模型在算术推理、数学问题解决等任务上的表现,在多个基准测试中取得了最先进的成果。

大语言模型推理能力提示工程Progressive-Hint Prompting数学问题解决Github开源项目
BMTools: 开源工具学习平台助力大型语言模型能力提升

BMTools: 开源工具学习平台助力大型语言模型能力提升

BMTools是一个开源的工具学习仓库,旨在通过工具扩展语言模型的能力,为社区提供构建和共享工具的平台。本文详细介绍了BMTools的主要功能、使用方法及其在大型语言模型研究中的重要作用。

BMTools大语言模型工具学习插件开发开源项目Github
EDA-GPT:开源数据分析的新秀利器

EDA-GPT:开源数据分析的新秀利器

EDA-GPT是一款功能强大的开源数据分析工具,能够处理结构化和非结构化数据,为用户提供全面的数据分析解决方案。它结合了先进的自然语言处理技术和可视化功能,让数据分析变得更加简单高效。

EDA GPT数据分析结构化数据非结构化数据大语言模型Github开源项目
DoRA: 革新性的低秩适应方法在人工智能领域的应用与发展

DoRA: 革新性的低秩适应方法在人工智能领域的应用与发展

DoRA(Weight-Decomposed Low-Rank Adaptation)是一种创新的低秩适应方法,旨在提高人工智能模型的性能和适应性。本文深入探讨了DoRA的工作原理、应用场景及其在AI领域的重要意义。

DoRA低秩适应权重分解微调大语言模型Github开源项目