大语言模型
LOMO是一种创新的优化器,可在有限计算资源下实现大语言模型的全参数微调。它通过融合梯度计算和参数更新步骤,大幅降低内存消耗,使单张RTX 3090显卡就能微调7B参数模型。
本文全面介绍了EvaluationPapers4ChatGPT项目,这是一个致力于收集和整理ChatGPT评估相关研究的开源项目。文章详细分析了该项目的背景、内容组成、研究进展以及对ChatGPT能力评估的主要发现。
awesome-generative-ai-guide是一个全面的生成式AI资源库,为研究人员和开发者提供了最新的论文、教程、代码和工具。本文深入介绍了这个项目的主要内容和特色,以及它对推动生成式AI发展的重要意义。
探索DOC (Detailed Outline Control) 项目如何通过详细大纲控制来生成更加连贯、相关和有趣的长篇故事。本文介绍了DOC的工作原理、安装使用方法以及与其他基线方法的对比。
BigCodeBench是一个易用的代码生成基准测试,旨在通 过实用且具有挑战性的编程任务来评估大型语言模型在更真实场景下的编程能力。
DataComp-LM (DCLM)是一个全面的框架,旨在通过优化数据集构建策略来提升大型语言模型的性能。它提供了标准化的语料库、有效的预训练方法和广泛的评估套件,为研究人员探索不同规模的数据集构建策略提供了便利。
这篇文章以春雨的视角,描绘了一场与英国古代诗人莎士比亚的想象对话。通过优美的意象和富有诗意的语言,展现了春雨与自然的和谐,以及对莎士比亚文学作品的赞美。文章充满了对生命、自然和文学的热爱,展现了春雨作为自然使者的独特视角。
LLaMA-Adapter是一种轻量级的适配方法,可以高效地将LLaMA等大型语言模型微调成指令跟随模型。该方法只需要1.2M的可学习参数,在1小时内即可完成微调,且生成的指令跟随效果可与全参数微调的模型相媲美。
本文介绍了Awesome-Graph-Prompt项目,这是一个汇集了图谱提示学习相关研究论文和资源的精选列表。文章详细探讨了图谱提示学习的概念、应用领域、代表性工作以及未来发展趋势。
HippoRAG是一个新颖的检索增强生成框架,受人类长期记忆神经生物学启发,使大型语言模型能够持续整合外部文档中的知识。它结合了知识图谱和个性化PageRank算法,提供了高效的多跳推理能力。
本文深入探讨了AutoKG项目,该项目旨在利用大型语言模型(LLMs)来自动构建和推理知识图谱。文章详细介绍了AutoKG的框架、评估方法和实验结果,展示了LLMs在知识图谱领域的巨大潜力,并探讨了未来的研究方向。
AutoAct是一个创新的自动化语言代理学习框架,无需依赖大规模标注数据和闭源模型,通过自我规划和分工策略,实现了从零开始的自动代理学习,在多项复杂任务中展现出卓越性能。
SEED-Story是一种创新的多模态大语言模型,能够基于用户提供的图像和文本,生成连贯丰富的长篇多模态故事。本文深入探讨了SEED-Story的技术原理、独特功能和广阔应用前景。
ProAgent是一种基于大型语言模型的智能体,旨在从人类指令中制定工作流程并通过协调专门的智能体做出复杂决策。它代表了从传统的机器人流程自动化(RPA)向智能体流程自动化(APA)的重大飞跃,开创了一种全新的自动化范式。
WizardLM是一个创新的大型语言模型项目,通过自动进化指令技术提升模型性能,在多项任务上超越同等规模模型,为处理复杂指令提供了新的解决方案。
Chain-of-Thought Hub是一个开源的评估套件,用于测量大语言模型在多步推理任务上的能力。它通过链式思考提示技术来评估模型在数学、科学、符号推理等复杂任务上的表现。
Progressive-Hint Prompting (PHP)是一种新颖的提示方法,通过多轮交互和渐进式提示,显著提高了大语言模型在算术推理、数学问题解决等任务上的表现,在多个基准测试中取得了最先进的成果。
BMTools是一个开源的工具学习仓库,旨在通过工具扩展语言模型的能力,为社区提供构建和共享工具的平台。本文详细介绍了BMTools的主要功能、使用方法及其在大型语言模型研究中的重要作用。
EDA-GPT是一款功能强大的开源数据分析工具,能够处理结构化和非结构化数据,为用户提供全面的数据分析解决方案。它结合了先进的自然语言处理技术和可视化功能,让数据分析变得更加简单高效。
DoRA(Weight-Decomposed Low-Rank Adaptation)是一种创新的低秩适应方法,旨在提高人工智能模型的性能和适应性。本文深入探讨了DoRA的工作原理、应用场景及其在AI领域的重要意义。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号