零样本学习资源大全:工具、网站、APP与开源项目

owlvit-base-patch32

owlvit-base-patch32

模型目标检测

OWL-ViT:基于CLIP的开放词汇目标检测模型

sam-vit-large

sam-vit-large

Segment Anything Model模型

高性能AI图像分割模型 多种输入方式生成精确物体遮罩

CLIP-ViT-B-32-laion2B-s34B-b79K

CLIP-ViT-B-32-laion2B-s34B-b79K

CLIP模型

基于LAION-2B数据集训练的CLIP ViT-B/32零样本图像识别模型

grounding-dino-base

grounding-dino-base

计算机视觉零样本学习

实现开放集目标检测的创新模型

owlv2-base-patch16-ensemble

owlv2-base-patch16-ensemble

模型目标检测

基于CLIP的开放词汇目标检测模型

grounding-dino-tiny

grounding-dino-tiny

模型目标检测

Grounding DINO模型实现开放集目标检测的创新突破

siglip-so400m-patch14-384

siglip-so400m-patch14-384

模型WebLI数据集

SigLIP模型应用sigmoid损失函数提升多模态处理能力

CLIP-ViT-B-16-laion2B-s34B-b88K

CLIP-ViT-B-16-laion2B-s34B-b88K

CLIP模型

基于LAION-2B数据集训练的CLIP零样本图像分类模型

clipseg-rd64-refined

clipseg-rd64-refined

模型一样本学习

基于文本和图像提示的先进图像分割策略

clip-vit-base-patch16

clip-vit-base-patch16

人工智能计算机视觉

OpenAI开发的CLIP模型实现零样本图像分类和跨模态理解

clip-vit-base-patch32

clip-vit-base-patch32

零样本学习OpenAI

OpenAI CLIP模型实现零样本图像分类的视觉语言预训练

clip-vit-large-patch14

clip-vit-large-patch14

人工智能计算机视觉

OpenAI CLIP模型实现零样本图像分类和跨模态匹配

FRESCO

FRESCO

FRESCO视频转换

基于空间-时间对应的零样本视频转换技术

OpenGraph

OpenGraph

OpenGraph图神经网络

图神经网络零样本学习的突破性研究

UniTS

UniTS

UniTS时间序列模型

统一时间序列模型实现多领域任务处理

WinClip

WinClip

WinCLIP异常检测

先进的零样本和少样本异常检测算法

GLIP

GLIP

GLIP计算机视觉

视觉语言预训练模型实现高效零样本和小样本物体检测

lang-seg

lang-seg

LSeg语义分割

语言驱动的零样本语义图像分割模型

YOLO-World

YOLO-World

YOLO-World目标检测

下一代实时开放词汇目标检测模型

ZeroEval

ZeroEval

ZeroEval语言模型评估

统一评估框架测试语言模型零样本推理