
OWL-ViT:基于CLIP的开放词汇目标检测模型

高性能AI图像分割模型 多种输入方式生成精确物体遮罩

基于LAION-2B数据集训练的CLIP ViT-B/32零样本图像识别模型

实现开放集目标检测的创新模型

基于CLIP的开放词汇目标检测模型

Grounding DINO模型实现开放集目标检测的创新突破

SigLIP模型应用sigmoid损失函数提升多模态处理能力

基于LAION-2B数据集训练的CLIP零样本图像分类模型

基于文本和图像提示的先进图像分割策略

OpenAI开发的CLIP模型实现零样本图像分类和跨模态理解

OpenAI CLIP模型实现零样本图像分类的视觉语言预训练

OpenAI CLIP模型实现零样本图像分类和跨模态匹配

基于空间-时间对应的零样本视频转换技术

图神经网络零样本学习的突破性研究

统一时间序列模型实现多领域任务处理

先进的零样本和少样本异常检测算法

视觉语言预训练模型实现高效零样本和小样本物体检测

语言驱动的零样本语义图像分割模型

下一代实时开放词汇目标检测模型

统一评估框架测试语言模型零样本推理
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号