大语言模型:精选AI工具、网站与开源项目

大语言模型

JudgeLM:利用大型语言模型构建可扩展的AI评估系统

JudgeLM:利用大型语言模型构建可扩展的AI评估系统

JudgeLM是一个开源的大型语言模型评估工具,通过对LLM进行微调,实现了高效、可扩展的AI能力评估。本文深入介绍了JudgeLM的原理、特点及应用前景。

JudgeLM大语言模型模型评估开放式任务微调Github开源项目
CapsFusion: 重新思考大规模图像-文本数据

CapsFusion: 重新思考大规模图像-文本数据

CapsFusion是一个创新的框架,利用大型语言模型融合网络图像-文本对和合成标题的优势,解决了现有多模态模型在可扩展性和世界知识方面的不足,为大规模多模态预训练提供了高质量数据。

CapsFusion图像文本数据大型多模态模型大语言模型数据集Github开源项目
MotionLLM: 理解人类行为的多模态大语言模型

MotionLLM: 理解人类行为的多模态大语言模型

MotionLLM是一个创新的多模态大语言模型框架,能同时理解视频和人体动作序列,实现人类行为的全面理解、描述和推理。该模型采用统一的视频-动作训练策略,结合了粗粒度视频文本数据和细粒度动作文本数据的优势,从而获得丰富的时空洞察力。

MotionLLM人工智能人类行为理解多模态学习大语言模型Github开源项目
aiXcoder-7B: 开创代码大语言模型新纪元

aiXcoder-7B: 开创代码大语言模型新纪元

探索aiXcoder-7B如何通过创新的预训练任务和数据处理方法,在代码补全和生成等任务中实现卓越性能,为软件开发带来革命性变革。

aiXcoder-7B代码生成大语言模型AI编程模型训练Github开源项目
LLM驱动的自主代理:发展、应用与挑战

LLM驱动的自主代理:发展、应用与挑战

本文深入探讨了基于大型语言模型(LLM)的自主代理系统的最新发展、应用领域及面临的挑战,为读者提供了该领域的全面概览。

LLM自主代理人工智能大语言模型机器学习Github开源项目
DevChat: 开源AI编程助手,让开发更智能高效

DevChat: 开源AI编程助手,让开发更智能高效

DevChat是一款开源的AI编程助手,它通过IDE聊天面板和智能脚本为开发者提供高效的工作流程自动化和编程辅助功能,旨在提升开发效率并简化AI与软件开发的结合。

DevChatAI编程助手工作流引擎IDE集成大语言模型Github开源项目
awesome-local-ai:本地AI工具和解决方案的开源资源集合

awesome-local-ai:本地AI工具和解决方案的开源资源集合

本文介绍了GitHub上的awesome-local-ai项目,该项目收集了100多个开源的本地AI工具和解决方案,包括推理引擎、用户界面、完整平台、开发者工具等多个类别,为希望在本地部署和使用AI的开发者和用户提供了丰富的选择。

本地AI开源工具大语言模型推理引擎AI应用Github开源项目
DoLa:利用对比层解码提升大语言模型事实性的创新方法

DoLa:利用对比层解码提升大语言模型事实性的创新方法

探索DoLa技术如何通过对比不同层的输出来改善大语言模型的事实性,详细介绍其原理、实现和影响,以及在自然语言处理领域的潜在应用。

DoLa大语言模型解码策略事实性层对比Github开源项目
awesome-synthetic-datasets: 人工智能合成数据集大全

awesome-synthetic-datasets: 人工智能合成数据集大全

本文介绍了awesome-synthetic-datasets项目,这是一个收集和整理人工智能合成数据集资源的开源项目。文章详细介绍了合成数据的概念、主要技术、重要数据集以及相关工具和论文,为人工智能研究者和开发者提供了宝贵的参考资料。

合成数据集大语言模型TinyStoriesSelf-InstructCosmopediaGithub开源项目
ChunkLlama: 突破大语言模型长上下文限制的无训练方法

ChunkLlama: 突破大语言模型长上下文限制的无训练方法

ChunkLlama提出了一种名为双重块注意力(Dual Chunk Attention, DCA)的创新技术,无需额外训练即可将大语言模型的上下文窗口扩展至原始预训练长度的8倍以上,为解决长文本理解难题提供了全新思路。

ChunkLlama大语言模型长上下文注意力机制无需训练Github开源项目
Godot LLM: 为游戏开发引入大语言模型的强大插件

Godot LLM: 为游戏开发引入大语言模型的强大插件

Godot LLM是一款为Godot游戏引擎开发的创新插件,它将大语言模型(LLM)的强大功能无缝集成到游戏开发工作流中。本文深入探讨了Godot LLM的特性、使用方法和潜在应用,为游戏开发者开启了一个充满可能性的新世界。

Godot LLM大语言模型文本生成文本嵌入向量数据库Github开源项目
ChemLLMBench: 探索大型语言模型在化学领域的应用潜力

ChemLLMBench: 探索大型语言模型在化学领域的应用潜力

ChemLLMBench是一个全面评估大型语言模型在化学领域能力的基准测试项目,涵盖了8个化学相关任务,旨在探索人工智能技术在化学研究和应用中的潜力。

ChemLLMBench化学大语言模型NeurIPS 2023基准测试Github开源项目
KoLLaVA: 韩语大型语言和视觉助手——基于LLaVA的韩语多模态对话模型

KoLLaVA: 韩语大型语言和视觉助手——基于LLaVA的韩语多模态对话模型

KoLLaVA是一个基于LLaVA框架开发的韩语多模态对话模型,能够进行以韩语为主的图像理解和对话交互。本文详细介绍了KoLLaVA的开发过程、模型架构、数据集构建、训练方法以及评估结果,展示了其在韩语视觉语言任务中的优秀表现。

KoLLaVA多模态模型视觉语言助手韩语大语言模型Github开源项目
EAGLE: 大语言模型高效推理的新基线

EAGLE: 大语言模型高效推理的新基线

EAGLE是一种新的大语言模型高效推理技术,通过外推LLM的第二顶层上下文特征向量,显著提高了生成效率。EAGLE-2进一步优化了草稿树结构,使推理速度比普通自回归解码快4倍。

EAGLE大语言模型快速解码性能维持推理速度Github开源项目
S-LoRA:高效服务数千并发LoRA适配器的创新系统

S-LoRA:高效服务数千并发LoRA适配器的创新系统

本文深入探讨了S-LoRA系统,这是一项为大规模服务LoRA适配器而设计的突破性技术。文章详细介绍了S-LoRA的核心特性、工作原理及其在提高大语言模型服务效率方面的重要贡献。

S-LoRALoRA适配器大语言模型批处理推理GPU内存优化Github开源项目
Mol-Instructions: 一个大规模的生物分子指令数据集助力大型语言模型

Mol-Instructions: 一个大规模的生物分子指令数据集助力大型语言模型

Mol-Instructions 是一个专为生物分子领域设计的综合指令数据集,包含分子导向指令、蛋白质导向指令和生物分子文本指令三个关键组成部分。该数据集旨在提高大型语言模型对生物分子特征和行为的理解和预测能力。

Mol-Instructions生物分子大语言模型数据集蛋白质Github开源项目
AGI调查报告:人工通用智能的现状与未来

AGI调查报告:人工通用智能的现状与未来

本文对人工通用智能(AGI)的研究现状和发展前景进行了全面调查,从AGI内部、接口、系统、对齐等多个维度分析了AGI的关键技术和挑战,并探讨了AGI的发展路线图。文章旨在为读者提供对AGI领域的系统性认知,并引发对AGI未来发展的思考。

AGI人工智能大语言模型多模态推理Github开源项目
BrainyAI:免费开源的浏览器侧边栏AI助手

BrainyAI:免费开源的浏览器侧边栏AI助手

BrainyAI是一款革命性的Chrome浏览器扩展,为用户提供免费的AI聊天、搜索、总结和浏览功能。它集成了多种顶级AI模型,如GPT-4、Claude和Gemini,成为Sider、Monica等付费产品的免费替代品。

BrainyAI浏览器插件AI聚合免费替代大语言模型Github开源项目
Think-on-Graph: 大语言模型在知识图谱上的深度推理与负责任应用

Think-on-Graph: 大语言模型在知识图谱上的深度推理与负责任应用

探索大语言模型与知识图谱结合的最新研究成果 Think-on-Graph,了解其创新的推理方法、广泛的应用前景以及对人工智能负责任发展的重要意义。

ToG知识图谱大语言模型深度推理ICLRGithub开源项目
MentaLLaMA:开创性的可解释心理健康分析大语言模型

MentaLLaMA:开创性的可解释心理健康分析大语言模型

MentaLLaMA是首个开源的具有指令跟随能力的可解释心理健康分析大语言模型,为社交媒体上的心理健康分析提供了新的可能性。本文详细介绍了MentaLLaMA的开发背景、模型架构、数据集构建、评估方法以及其在心理健康分析领域的应用前景。

MentaLLaMA大语言模型心理健康分析社交媒体可解释性Github开源项目