ViT架构图像分类模型实现99.23%精度
基于Transformer架构的大规模图像分类模型
AutoTrain训练的多族裔分类模型准确率达79.6%
EfficientNet B3变体:基于RandAugment的ImageNet-1k图像分类模型
基于SigLIP的先进视觉语言模型实现零样本图像分类
基于LAION-2B数据集训练的CLIP ViT-B/32零样本图像识别模型
基于PubMedBERT的生物医学视觉语言基础模型
SigLIP改进CLIP模型 实现更高效的零样本图像分类和检索
EfficientNet-B0模型集成RandAugment技术的图像分类应用
基于LAION-2B数据集的多功能视觉-语言模型
轻量级ViT模型实现高效图像分类
Vision Transformer人脸年龄分类模型
BEiT 基于Transformer的自监督图像分类模型
ResNet18图像分类模型 适用于多种计算机视觉任务
SigLIP模型应用sigmoid损失函数提升多模态处理能力
Vision Transformer图像分类模型在ImageNet数据集上的应用
基于LAION-2B数据集训练的CLIP零样本图像分类模型
基于ViT的NSFW图像检测模型
ResNet v1.5模型及其应用于图像识别
OpenAI开发的CLIP模型实现零样本图像分类和跨模态理解
最新AI工具、AI资讯
独家AI资源、AI项目 落地
微信扫一扫关注公众号