值得探索的AI开源项目:工具、网站与应用合集

lora-svc: 基于Whisper的新一代歌声转换技术

lora-svc: 基于Whisper的新一代歌声转换技术

lora-svc是一个开源的歌声转换项目,结合了OpenAI的Whisper、NVIDIA的BigVGAN和Microsoft的LoRA等先进AI技术,实现了高质量的歌声克隆和转换。本文将详细介绍lora-svc的原理、特点及使用方法。

Singing Voice ConversionWhisperBigVGANLoRA人工智能Github开源项目
Ollama eBook Summary: 革新长文本摘要的智能工具

Ollama eBook Summary: 革新长文本摘要的智能工具

Ollama eBook Summary 是一款基于人工智能的电子书摘要工具,能够高效地生成长文本的结构化笔记。本文深入介绍了该工具的核心功能、使用方法和应用场景,展示了其在内容消化和知识管理方面的独特优势。

书籍摘要自动化提取分段处理OllamaMistralGithub开源项目
Awesome Multimodal Large Language Models: 一站式多模态大语言模型资源库

Awesome Multimodal Large Language Models: 一站式多模态大语言模型资源库

本文全面介绍了多模态大语言模型(MLLM)的最新进展,包括数据集、模型架构、训练技术、应用场景等,为研究人员和开发者提供了一个全面的MLLM资源库。

多模态大语言模型指令微调上下文学习思维链视觉推理Github开源项目
OllamaKit: 强大的Swift客户端库助力Ollama API集成

OllamaKit: 强大的Swift客户端库助力Ollama API集成

OllamaKit是一个专为Swift开发者设计的Ollama API客户端库,它简化了与Ollama API的交互过程,为开发者提供了一种简单高效的方式来集成Ollama的强大功能。

OllamaSwiftAPIOllamaKit开发库Github开源项目
DISC-FinLLM: 多专家微调的中文金融大语言模型

DISC-FinLLM: 多专家微调的中文金融大语言模型

DISC-FinLLM是由复旦大学开发的中文金融大语言模型,旨在为用户提供专业、智能、全面的金融咨询服务。本文详细介绍了DISC-FinLLM的开发背景、模型架构、训练数据、微调方法、评测结果等内容。

DISC-FinLLM金融大模型微调数据集金融咨询Github开源项目
RAG聊天机器人:最新技术与实现细节深度解析

RAG聊天机器人:最新技术与实现细节深度解析

本文深入探讨了检索增强生成(RAG)聊天机器人的工作原理、关键技术和实现方法,同时介绍了一个开源RAG聊天机器人项目的具体实现细节,为读者提供了全面的RAG聊天机器人开发指南。

RAGPDF聊天本地运行GradioHuggingfaceGithub开源项目
UrbanGPT: 城市时空大语言模型的突破性研究

UrbanGPT: 城市时空大语言模型的突破性研究

UrbanGPT是一种创新的城市时空大语言模型,它能够在各种城市任务中展现出卓越的泛化能力。通过将时空依赖编码器与指令调优范式相结合,UrbanGPT使大语言模型能够理解时间和空间的复杂相互依赖关系,从而在数据稀缺的情况下实现更全面和准确的预测。

UrbanGPT时空大语言模型城市任务指令微调预训练Github开源项目
深度学习模型压缩与加速技术综述

深度学习模型压缩与加速技术综述

本文全面介绍了深度学习模型压缩与加速的主要技术,包括参数剪枝、量化、知识蒸馏、低秩近似等方法,并探讨了这些技术的优缺点和最新进展。

模型压缩机器学习深度学习神经网络AI加速Github开源项目
INTERS: 利用指令微调释放大型语言模型在搜索中的潜力

INTERS: 利用指令微调释放大型语言模型在搜索中的潜力

INTERS是一个创新的指令微调数据集,旨在增强大型语言模型在信息检索任务中的能力。本文详细介绍了INTERS的设计理念、数据构建过程、任务类型以及实验结果,展示了其在提升LLM搜索性能方面的重要价值。

INTERS大语言模型信息检索指令微调自然语言处理Github开源项目
指令数据集的介绍与应用

指令数据集的介绍与应用

本文介绍了指令数据集在大语言模型训练中的重要性,梳理了目前主流的指令数据集类型及代表性数据集,并探讨了指令数据集的应用前景。

Instruction Tuning大语言模型数据集NLP多语言Github开源项目
Inferflow:高效且可配置的大型语言模型推理引擎

Inferflow:高效且可配置的大型语言模型推理引擎

Inferflow是一个为大型语言模型(LLMs)设计的高效、灵活的推理引擎,它具有卓越的性能和丰富的配置选项,为AI开发者和研究人员提供了强大的工具。

Inferflow大语言模型推理引擎模型服务量化Github开源项目
LongForm项目:通过反向指令实现高效的指令调优

LongForm项目:通过反向指令实现高效的指令调优

探索LongForm项目如何利用反向指令方法创建大规模指令调优数据集,以及其在长文本生成任务中的出色表现。

LongForm指令调优自然语言处理长文本生成语言模型Github开源项目
LLaVAR: 增强视觉指令调优以实现文本丰富图像理解

LLaVAR: 增强视觉指令调优以实现文本丰富图像理解

LLaVAR是一种基于LLaVA模型的改进版本,通过增强的视觉指令调优技术,显著提升了模型在文本丰富图像理解任务上的性能,尤其是在文本密集型视觉问答和OCR相关任务中表现突出。

LLaVAR视觉指令微调文本丰富图像理解多模态大语言模型OCR能力Github开源项目
AutoRound:为大型语言模型优化的先进量化算法

AutoRound:为大型语言模型优化的先进量化算法

AutoRound是一种针对大型语言模型(LLMs)优化的先进量化算法,通过有符号梯度下降来优化权重舍入,实现高效的模型压缩和加速。本文详细介绍了AutoRound的原理、使用方法及其在各种主流LLM上的应用效果。

AutoRound量化算法LLM推理权重量化低位推理Github开源项目
qwen.cpp: C++实现的Qwen语言模型

qwen.cpp: C++实现的Qwen语言模型

qwen.cpp是Qwen大语言模型的C++实现版本,专为在MacBook上实现实时对话而设计。本文详细介绍了qwen.cpp的特点、安装使用方法以及开发细节。

qwen.cppQwen-LMC++实现ggml量化模型Github开源项目
GraphGPT: 大型语言模型的图指令微调

GraphGPT: 大型语言模型的图指令微调

GraphGPT是一个创新的框架,通过图指令微调范式将大型语言模型与图结构知识相结合。它能够增强语言模型对图结构信息的理解和处理能力,为图学习任务提供更准确和有上下文的响应。

GraphGPT大语言模型图结构知识指令微调图学习Github开源项目
UHGEval: 一个全面评估中文大语言模型幻觉问题的基准测试

UHGEval: 一个全面评估中文大语言模型幻觉问题的基准测试

UHGEval是一个专为评估中文大语言模型在专业内容生成中的幻觉问题而设计的大规模基准测试。它基于无约束文本生成和幻觉收集,结合了自动标注和人工审核。

UHGEval大语言模型幻觉评估中文评估基准Eval SuiteGithub开源项目
BEVFormer_tensorrt: 基于TensorRT的高效BEV 3D目标检测部署方案

BEVFormer_tensorrt: 基于TensorRT的高效BEV 3D目标检测部署方案

BEVFormer_tensorrt项目实现了BEVFormer等BEV 3D目标检测模型在TensorRT上的高效部署,支持FP32/FP16/INT8推理,并通过自定义TensorRT插件大幅提升了推理速度和内存效率。

BEV 3D DetectionTensorRT推理加速量化GPU内存优化Github开源项目
Knowledge-QA-LLM: 基于本地知识库和大语言模型的问答系统

Knowledge-QA-LLM: 基于本地知识库和大语言模型的问答系统

Knowledge-QA-LLM是一个创新的开源项目,结合本地知识库和大语言模型,实现高效灵活的问答系统。它具有模块化设计、易于部署和支持多种文档格式等优势,为知识问答领域带来了新的解决方案。

Knowledge QA LLM本地知识库大语言模型问答系统模块化设计Github开源项目
ChatGLM模型微调技术详解:从Freeze到全参数训练的全面指南

ChatGLM模型微调技术详解:从Freeze到全参数训练的全面指南

本文深入探讨了ChatGLM系列模型的微调技术,包括Freeze、P-Tuning、LoRA和全参数训练等方法,并提供了详细的代码示例和显存占用分析,为开发者进行ChatGLM模型微调提供全面指导。

ChatGLM微调大语言模型深度学习自然语言处理Github开源项目