热门Transformer工具集合:AI助手、应用和开源项目

TATS: 一种突破性的长视频生成框架

TATS: 一种突破性的长视频生成框架

探索TATS (Time-Agnostic VQGAN and Time-Sensitive Transformer) 如何通过创新的时间无关VQGAN和时间敏感Transformer架构,实现长视频的高质量生成,为视频合成领域带来新的可能性。

TATS视频生成VQGANTransformer长视频生成Github开源项目
EET: 高效便捷的Transformer推理解决方案

EET: 高效便捷的Transformer推理解决方案

EET (Easy and Efficient Transformer) 是一款专注于基于Transformer的模型推理的友好型PyTorch插件,旨在使大规模模型变得更加易用和高效。本文将深入介绍EET的特性、使用方法及性能表现。

EETTransformer推理AI模型性能优化Github开源项目
LLM101n: 与Andrej Karpathy一起探索人工智能教育的未来

LLM101n: 与Andrej Karpathy一起探索人工智能教育的未来

Andrej Karpathy推出Eureka Labs和LLM101n课程,旨在通过实践教学和AI辅助,让更多人掌握构建大语言模型的技能,开启AI教育的新时代。

LLMAI深度学习TransformerPythonGithub开源项目
NLP之旅:自然语言处理的学习与探索

NLP之旅:自然语言处理的学习与探索

本文将带您深入了解自然语言处理(NLP)领域,探讨NLP的发展历程、核心技术以及最新进展,为您的NLP学习之旅提供全面的指南。

nlp journeyTransformerDeep LearningGitHubDeep Learning BookGithub开源项目
TSFpaper: 时间序列预测研究的全面综述

TSFpaper: 时间序列预测研究的全面综述

本文全面介绍了TSFpaper项目,该项目收集了300多篇关于时间序列预测和时空预测的论文,按模型类型进行分类,涵盖了从传统方法到最新深度学习模型的广泛内容。

Time Series ForecastingSpatio-Temporal Forecastingdeep learningTransformermultivariate forecastingGithub开源项目
Autoformer: 长期时间序列预测的革新性架构

Autoformer: 长期时间序列预测的革新性架构

Autoformer是一种新型的深度学习模型,专门用于长期时间序列预测。它突破了传统Transformer的局限,引入了创新的自相关机制和深度分解架构,在多个领域的长期预测任务中取得了显著的性能提升。

Autoformer时间序列预测Transformer自动相关机制长期预测Github开源项目
ActionFormer:基于Transformer的行为定位模型

ActionFormer:基于Transformer的行为定位模型

ActionFormer是一个创新的基于Transformer的视频行为定位模型,能够精确定位视频中动作的起止时间并识别动作类别。该模型在多个基准数据集上取得了最先进的性能,是视频理解领域的重要突破。

ActionFormerTransformer时序动作定位THUMOS14ActivityNetGithub开源项目
Intel AI 参考模型全面解析:加速深度学习工作负载的利器

Intel AI 参考模型全面解析:加速深度学习工作负载的利器

探索Intel AI参考模型库,了解如何利用Intel优化的深度学习框架和预训练模型,在Intel处理器和GPU上高效运行AI工作负载。

Intel AI Reference Models深度学习优化TransformerIntel Xeon ScalableGithub开源项目
detrex: 基于DETR的目标检测研究平台

detrex: 基于DETR的目标检测研究平台

detrex是一个用于DETR系列目标检测、分割、姿态估计等视觉识别任务的开源研究平台。它提供了一个统一、模块化、轻量级的代码库,支持主流的基于DETR的实例识别算法。

detrexTransformerobject detectionDetectron2PytorchGithub开源项目
Optimum: 加速深度学习模型训练和推理的优化工具

Optimum: 加速深度学习模型训练和推理的优化工具

Optimum 是 Hugging Face 开发的一个开源库,旨在为 Transformers 和 Diffusers 等深度学习模型提供硬件加速优化,帮助用户在特定硬件上最大化模型训练和推理效率,同时保持易用性。

Hugging Face OptimumONNX RuntimeOpenVINOTransformer训练模型Github开源项目
Gemini: Google 的多模态AI模型引领未来智能交互

Gemini: Google 的多模态AI模型引领未来智能交互

Gemini 是 Google 最新推出的多模态 AI 模型,能够处理文本、图像、音频和视频等多种输入,并生成多模态输出。本文全面介绍 Gemini 的特点、架构和应用,展望其在人工智能领域的革命性影响。

Gemini多模态Transformer图像嵌入音频处理Github开源项目
RecurrentGPT:突破长文本生成限制的创新模型

RecurrentGPT:突破长文本生成限制的创新模型

RecurrentGPT是一种基于大型语言模型的创新算法,通过模拟RNN的递归机制,实现了任意长度文本的交互式生成,为AI写作和交互式小说创作开辟了新的可能。

Recurrent-LLMRecurrentGPTAI As ContentsTransformer长短时记忆Github开源项目
LongRoPE:突破200万token的大语言模型上下文窗口扩展技术

LongRoPE:突破200万token的大语言模型上下文窗口扩展技术

LongRoPE是一项革命性的技术,首次将预训练大语言模型的上下文窗口扩展到了惊人的2048k tokens,仅需在256k训练长度内进行不超过1k步的微调,同时保持了原有短上下文窗口的性能。本文深入探讨了LongRoPE的工作原理、实现细节及其在自然语言处理领域的潜在应用。

LongRoPE大语言模型上下文窗口位置编码TransformerGithub开源项目
AttentionViz:一个可视化Transformer注意力机制的强大工具

AttentionViz:一个可视化Transformer注意力机制的强大工具

AttentionViz是一款创新的可视化工具,旨在帮助研究人员理解Transformer模型中的自注意力机制。它通过visualizing注意力模式的全局视图,为探索语言和视觉Transformer模型的内部工作原理提供了新的视角。

attention-vizTransformer深度学习可视化自然语言处理Github开源项目
TransformerHub: 探索深度学习前沿的变形金刚模型仓库

TransformerHub: 探索深度学习前沿的变形金刚模型仓库

TransformerHub是一个集成了多种Transformer模型实现的开源项目,包括Transformer、GPT、BERT、ViT等经典架构,旨在为深度学习爱好者提供学习参考和实践平台。

TransformerHubTransformerGPTBERTViTGithub开源项目
commented-transformers: 实现高度注释的PyTorch Transformer模型

commented-transformers: 实现高度注释的PyTorch Transformer模型

本文介绍了warner-benjamin开发的commented-transformers项目,该项目提供了带有详细注释的PyTorch Transformer模型实现,包括GPT-2和BERT等,旨在帮助人们深入理解Transformer架构的工作原理。

TransformerPyTorchAttention机制GPT-2BERTGithub开源项目
大型语言模型(LLM)发展概述与应用前景

大型语言模型(LLM)发展概述与应用前景

本文全面介绍了大型语言模型(LLM)的发展历程、主要模型、关键技术以及应用前景,为读者提供了LLM领域的系统性概览。

LLMTransformerGPTBERTchatGPTGithub开源项目
MinT: 从零开始构建Transformer模型的极简教程与库

MinT: 从零开始构建Transformer模型的极简教程与库

MinT是一个用于从头开始实现常见Transformer模型的极简PyTorch库,同时提供了一系列深入浅出的教程,帮助开发者理解和构建各种Transformer架构。

MinTTransformerBERTPyTorchHuggingFaceGithub开源项目
Masked Image Modeling: 深度学习中的新范式

Masked Image Modeling: 深度学习中的新范式

本文全面介绍了Masked Image Modeling (MIM)这一新兴的自监督学习范式,探讨了其原理、发展历程、主要方法以及在计算机视觉等领域的应用,为读者提供了MIM技术的系统性综述。

Masked Image Modeling自监督学习计算机视觉Transformer深度学习Github开源项目
LLM全栈优质资源汇总:打造您的大语言模型百宝箱

LLM全栈优质资源汇总:打造您的大语言模型百宝箱

本文汇总了大语言模型(LLM)全栈开发的优质资源,涵盖LLM算法、训练、推理、压缩等多个方面,旨在为从事LLM研究和应用的开发者提供全面的学习参考。

LLMTransformerGPT-2ChatGPTMOEGithub开源项目