探索对比学习的AI工具与资源合集

awesome-self-supervised-learning入门学习资料汇总 - 自监督学习资源大全

awesome-self-supervised-learning入门学习资料汇总 - 自监督学习资源大全

本文汇总了awesome-self-supervised-learning项目的主要资源,包括理论、计算机视觉、机器学习等领域的自监督学习论文、代码和教程,为想要入门自监督学习的读者提供指引。

自监督学习人工智能深度学习对比学习视觉特征学习Github开源项目
open_clip学习资料汇总 - 开源CLIP实现

open_clip学习资料汇总 - 开源CLIP实现

open_clip是OpenAI CLIP(对比语言-图像预训练)模型的开源实现,本文汇总了该项目的主要学习资源,帮助读者快速入门和深入学习。

OpenCLIP预训练模型对比学习图像识别零样本学习Github开源项目
contrastors学习资料汇总 - 高效训练和评估对比学习模型的工具包

contrastors学习资料汇总 - 高效训练和评估对比学习模型的工具包

contrastors是一个用于高效训练和评估对比学习模型的开源工具包,本文汇总了该项目的相关学习资源,包括GitHub仓库、特性介绍、使用指南等,帮助读者快速上手这一强大的对比学习工具。

contrastors对比学习Nomic EmbedFlash AttentionBERTGithub开源项目
图数据增强技术在深度图学习中的应用与发展

图数据增强技术在深度图学习中的应用与发展

本文全面综述了图数据增强技术在深度图学习领域的最新进展,包括增强方法、应用场景及未来发展方向,为研究者提供了系统性的参考。

图数据增强图机器学习图神经网络对比学习半监督学习Github开源项目
CoCa-pytorch: 图像-文本基础模型的强大实现

CoCa-pytorch: 图像-文本基础模型的强大实现

CoCa-pytorch是一个基于PyTorch的开源项目,实现了CoCa (Contrastive Captioners)模型。这个模型通过将对比学习优雅地融入传统的编码器/解码器(图像到文本)transformer架构中,在图像理解和文本生成任务上取得了卓越的性能。

CoCa图像文本模型Pytorch实现对比学习transformer架构Github开源项目
图神经网络预训练策略综述:方法、应用与挑战

图神经网络预训练策略综述:方法、应用与挑战

本文全面综述了图神经网络预训练的最新进展,系统梳理了主流预训练策略、常见应用场景及面临的挑战,为研究者提供了详尽的技术路线图。

图神经网络预训练自监督学习对比学习生成式预训练Github开源项目
TS-TCC: 时间序列表示学习的新范式

TS-TCC: 时间序列表示学习的新范式

本文深入探讨了TS-TCC(Time-Series representation learning via Temporal and Contextual Contrasting)这一创新的时间序列表示学习框架,详细介绍了其原理、实现和应用,展示了该方法在无监督学习、少样本学习和迁移学习等场景下的卓越性能。

时间序列对比学习自监督学习表示学习IJCAIGithub开源项目
时间序列自监督学习综述:分类、进展与展望

时间序列自监督学习综述:分类、进展与展望

本文全面综述了时间序列自监督学习的最新进展,系统地介绍了相关方法的分类、代表性工作及应用,并展望了未来研究方向。

自监督学习时间序列生成式方法对比学习表示学习Github开源项目
DCLGAN: 一种创新的无监督图像到图像转换方法

DCLGAN: 一种创新的无监督图像到图像转换方法

DCLGAN是一种基于双重对比学习的无监督图像到图像转换模型,在多个任务中取得了最先进的性能。本文将详细介绍DCLGAN的原理、特点和应用,以及与其他模型的比较。

DCLGAN图像转换对比学习生成对抗网络无监督学习Github开源项目
X-CLIP: 面向视频-文本检索的端到端多粒度对比学习

X-CLIP: 面向视频-文本检索的端到端多粒度对比学习

X-CLIP是一种创新的视频-文本检索模型,通过引入跨粒度对比学习和注意力相似度矩阵,有效提升了检索性能。本文将详细介绍X-CLIP的核心思想、模型架构、训练方法以及在多个基准数据集上的优异表现。

CLIP对比学习视觉语言模型多模态深度学习Github开源项目
DenseCL: 一种创新的自监督视觉预训练方法

DenseCL: 一种创新的自监督视觉预训练方法

DenseCL是一种新颖的密集对比学习方法,旨在改进自监督视觉预训练,特别是对密集预测任务的性能。它通过在像素级别优化对比损失来学习更好的特征表示,显著提高了目标检测和语义分割等下游任务的性能。

自监督学习视觉预训练对比学习密集预测Github开源项目DenseCL
MoCo: 自监督视觉表示学习的里程碑

MoCo: 自监督视觉表示学习的里程碑

MoCo(Momentum Contrast)是由Facebook AI Research提出的一种自监督视觉表示学习方法,通过对比学习和动量编码器的创新设计,在多个下游任务中取得了突破性进展,成为计算机视觉领域的重要里程碑。

MoCo无监督视觉表示学习对比学习ResNet-50ImageNetGithub开源项目
BCL: 提升记忆效果的对比学习方法

BCL: 提升记忆效果的对比学习方法

BCL(Boosted Contrastive Learning)是一种创新的自监督学习方法,通过利用深度神经网络的记忆效应来增强对比学习,尤其适用于长尾分布数据集的表示学习。该方法在CIFAR-100等多个基准数据集上取得了优异的表现,为解决现实世界中的长尾分布问题提供了新的思路。

对比学习长尾识别自监督学习记忆效应BCLGithub开源项目
对比自监督学习:计算机视觉领域的新范式

对比自监督学习:计算机视觉领域的新范式

对比自监督学习作为一种无需标注数据的表示学习方法,在近年来取得了巨大突破,本文全面介绍了这一领域的发展历程、关键技术和最新进展。

对比学习自监督学习表示学习视觉模型深度学习Github开源项目
图神经网络自监督学习技术的发展与应用

图神经网络自监督学习技术的发展与应用

本文全面介绍了图神经网络(GNN)自监督学习领域的最新进展,包括关键技术、主要方法和应用场景,为研究者提供了系统的技术综述。

GNN自监督学习对比学习图神经网络论文Github开源项目
GradCache:突破GPU/TPU内存限制,无限扩展对比学习批量大小的利器

GradCache:突破GPU/TPU内存限制,无限扩展对比学习批量大小的利器

GradCache是一种简单高效的技术,可以突破GPU/TPU内存限制,无限扩展对比学习的批量大小。它使得原本需要8块V100 GPU的训练任务可以在单个GPU上完成,极大地提高了训练效率和资源利用率。

Gradient Cache对比学习PytorchJAXGPUGithub开源项目
TensorFlow Similarity: 快速简易的相似度学习工具

TensorFlow Similarity: 快速简易的相似度学习工具

TensorFlow Similarity是一个专注于使相似度学习变得快速和简单的Python包,它为开发者提供了强大的相似度学习功能,可以轻松实现各种相似度计算和模型训练任务。

TensorFlow Similarity相似性学习度量学习自监督学习对比学习Github开源项目
对比式无配对图像翻译(CUT)技术解析与应用

对比式无配对图像翻译(CUT)技术解析与应用

对比式无配对图像翻译(Contrastive Unpaired Translation, CUT)是一种新型的图像到图像翻译方法,相比传统CycleGAN等方法具有更快的训练速度和更低的内存消耗。本文将深入解析CUT的核心原理、优势特点及实际应用,为读者提供全面的技术认知。

Contrastive Unpaired TranslationPyTorch对比学习图像到图像转换CycleGANGithub开源项目
自监督学习:人工智能的新方向

自监督学习:人工智能的新方向

本文全面介绍了自监督学习的概念、发展历程、主要方法以及在计算机视觉等领域的应用,探讨了该技术的优势和未来发展前景。

自监督学习人工智能深度学习对比学习视觉特征学习Github开源项目
OpenCLIP: 开源实现的CLIP模型

OpenCLIP: 开源实现的CLIP模型

OpenCLIP是OpenAI CLIP模型的开源实现,提供了多种预训练模型和训练代码,支持大规模视觉-语言对比学习。本文详细介绍了OpenCLIP的特点、使用方法和训练技巧。

OpenCLIP预训练模型对比学习图像识别零样本学习Github开源项目