热门Transformer工具集合:AI助手、应用和开源项目

CookBook: 深度学习实践指南

CookBook: 深度学习实践指南

CookBook是一个面向深度学习初学者的实用指南,涵盖了使用真实模型进行工作的所有实际细节和有用工具。

深度学习模型训练Transformer分布式训练EleutherAIGithub开源项目
xFormers:加速Transformer研究的强大工具箱

xFormers:加速Transformer研究的强大工具箱

xFormers是一个模块化、高效的Transformer建模库,提供了可定制的组件和优化的CUDA内核,旨在加速深度学习研究,特别是在Transformer模型方面。

xFormersTransformer注意力机制深度学习PyTorchGithub开源项目
BioGPT: 生物医学文本生成与挖掘的突破性人工智能模型

BioGPT: 生物医学文本生成与挖掘的突破性人工智能模型

BioGPT是由微软研究院开发的针对生物医学领域的大型语言模型,它在多项生物医学自然语言处理任务中展现出了超越人类水平的表现,为生物医学研究带来了新的可能性。

BioGPT自然语言处理生物医学文本预训练模型TransformerGithub开源项目
大型语言模型(LLM)阅读清单:一份全面的入门指南

大型语言模型(LLM)阅读清单:一份全面的入门指南

本文整理了一份全面的大型语言模型(LLM)相关论文和资源的阅读清单,涵盖了LLM的基础架构、训练技巧、效率优化、对齐等关键主题,旨在帮助读者系统性地了解LLM的发展历程和最新进展。

LLMTransformer模型压缩深度学习自然语言处理Github开源项目
Uni2TS: 统一的通用时间序列预测Transformer模型

Uni2TS: 统一的通用时间序列预测Transformer模型

Uni2TS是由Salesforce AI Research开发的PyTorch库,旨在为大规模预训练通用时间序列Transformer提供统一解决方案,并提供时间序列预测的微调、推理和评估工具。

Uni2TS时间序列预测Transformer预训练模型PyTorchGithub开源项目
MeMOTR: 基于长期记忆增强的Transformer多目标跟踪模型

MeMOTR: 基于长期记忆增强的Transformer多目标跟踪模型

MeMOTR是一种端到端的基于Transformer架构的多目标跟踪模型,通过长期记忆注入和自定义记忆注意力层显著提升了目标关联性能。本文详细介绍了MeMOTR的核心思想、网络结构、训练细节以及在多个数据集上的实验结果。

MeMOTR多目标跟踪Transformer长期记忆计算机视觉Github开源项目
MixFormerV2:高效全变换器跟踪的新突破

MixFormerV2:高效全变换器跟踪的新突破

MixFormerV2是一种新型的全变换器目标跟踪框架,通过引入预测令牌和蒸馏训练策略,实现了高效率和高性能的目标跟踪。本文将深入探讨MixFormerV2的设计思路、核心创新点以及在多个基准测试中的出色表现。

MixFormerV2目标跟踪Transformer模型蒸馏神经网络Github开源项目
ETSformer-pytorch: 基于指数平滑的先进时间序列Transformer模型

ETSformer-pytorch: 基于指数平滑的先进时间序列Transformer模型

ETSformer-pytorch是一个在PyTorch中实现的先进时间序列预测模型,它结合了经典指数平滑方法和现代Transformer架构的优点,为时间序列预测任务提供了更高的准确性和可解释性。

ETSformer时间序列预测PytorchTransformer指数平滑Github开源项目
PixArt-Σ: 突破性的4K文本到图像生成模型

PixArt-Σ: 突破性的4K文本到图像生成模型

PixArt-Σ是一个基于弱到强训练的扩散Transformer模型,能够直接生成4K分辨率的高质量图像。本文将详细介绍PixArt-Σ的特点、优势及其在文本到图像生成领域带来的重大突破。

PixArt-Σ文生图扩散模型Transformer4K图像生成Github开源项目
HAT: 激活更多像素�的图像超分辨率变换器

HAT: 激活更多像素的图像超分辨率变换器

HAT是一种创新的图像超分辨率方法,通过激活更多像素来提高图像重建质量。本文详细介绍了HAT的原理、特点及其在图像超分辨率和图像恢复等任务中的应用,展示了其优越的性能表现。

图像超分辨率HATTransformer深度学习计算机视觉Github开源项目
CAT:用于图像恢复的跨聚合Transformer

CAT:用于图像恢复的跨聚合Transformer

CAT是一种新型的图像恢复模型,通过创新的矩形窗口自注意力机制和局部互补模块,在多种图像恢复任务中实现了最先进的性能。

图像修复Transformer自注意力机制长程依赖卷积神经网络Github开源项目
Fast-DiT:高效的基于Transformer的扩散模型

Fast-DiT:高效的基于Transformer的扩散模型

Fast-DiT是一个创新的AI项目,旨在通过Transformer架构提高扩散模型的效率和性能。本文深入探讨了Fast-DiT的核心概念、技术特点以及其在AI领域的潜在应用。

DiT扩散模型Transformer图像生成PyTorchGithub开源项目
RGT: 递归泛化Transformer用于图像超分辨率

RGT: 递归泛化Transformer用于图像超分辨率

RGT是一种创新的图像超分辨率方法,通过递归泛化自注意力机制和混合自适应集成模块,实现了全局上下文信息的高效提取和利用,在定量和定性评估中都取得了最先进的性能。

图像超分辨率TransformerRGT全局上下文自注意力机制Github开源项目
Scenic: 谷歌开源的多模态计算机视觉研究库

Scenic: 谷歌开源的多模态计算机视觉研究库

Scenic 是谷歌研究院开源的基于 JAX 和 Flax 的计算机视觉研究库,专注于注意力机制模型,支持图像、视频、音频等多模态任务的开发。本文详细介绍了 Scenic 的设计理念、主要功能和使用方法,以及其在学术界和工业界的广泛应用。

Scenic计算机视觉JAXTransformer深度学习Github开源项目
FlowFormer: 变革性的Transformer架构在光流估计领域的应用

FlowFormer: 变革性的Transformer架构在光流估计领域的应用

FlowFormer是一种新型的基于Transformer的神经网络架构,专门用于光流估计任务。它通过创新性地将4D代价体转化为代价记忆,并利用交替组Transformer层进行编码,再通过递归Transformer解码器与动态位置代价查询进行解码,实现了光流估计性能的显著提升。

注意力机制流网络理论Github开源项目FlowformerTransformer线性复杂度
Awesome Decision Transformer: 探索序列建模在强化学习中的应用

Awesome Decision Transformer: 探索序列建模在强化学习中的应用

本文全面介绍了Decision Transformer这一将强化学习建模为序列生成问题的创新方法,梳理了其发展脉络、核心思想和最新研究进展,并探讨了其在多个领域的潜在应用前景。

Decision Transformer强化学习序列建模Transformer离线学习Github开源项目
TRL: 全栈式语言模型微调��与对齐框架

TRL: 全栈式语言模型微调与对齐框架

TRL是一个专门用于微调和对齐大型语言模型的全栈工具库,支持监督微调、奖励建模、PPO等多种方法,为开发者提供了高效、灵活的模型训练解决方案。

TRL微调大语言模型强化学习TransformerGithub开源项目
从零开始实现Transformer:深入理解大型语言模型的核心架构

从零开始实现Transformer:深入理解大型语言模型的核心架构

本文将详细介绍如何从零开始实现Transformer模型,深入探讨其核心架构和训练过程,帮助读者全面了解大型语言模型的工作原理。

TransformerLLMPyTorch模型训练自然语言处理Github开源项目
PixArt-α: 快速训练的图像生成新范式

PixArt-α: 快速训练的图像生成新范式

PixArt-α是一种基于Transformer的文本到图像扩散模型,能够生成高质量的图像,同时大幅降低训练成本和时间。本文详细介绍了PixArt-α的核心技术、训练方法、推理过程以及各种应用场景。

PixArt-α文本生成图像扩散模型Transformer高效训练Github开源项目
Latte: 革新视频生成的潜在扩散Transformer模型

Latte: 革新视频生成的潜在扩散Transformer模型

Latte是一种创新的潜在扩散Transformer模型,旨在提高视频生成的质量和效率。它结合了潜在扩散模型和Transformer架构的优势,为视频生成任务带来了新的可能性。

Latte视频生成AI模型深度学习TransformerGithub开源项目