
ViT架构图像分类模型实现99.23%精度

基于Transformer架构的大规模图像分类模型

AutoTrain训练的多族裔分类模型准确率达79.6%

EfficientNet B3变体:基于RandAugment的ImageNet-1k图像分类模型

基于SigLIP的先进视觉语言模型实现零样本图像分类

基于LAION-2B数据集训练的CLIP ViT-B/32零样本图像识别模型

基于PubMedBERT的生物医学视觉语言基础模型

SigLIP改进CLIP模型 实现更高效的零样本图像分类和检索

EfficientNet-B0模型集成RandAugment技术的图像分类应用

基于LAION-2B数据集的多功能视觉-语言模型

轻量级ViT模型实现高效图像分类

Vision Transformer人脸年龄分类模型

BEiT 基于Transformer的自监督图像分类模型

ResNet18图像分类模型 适用于多种计算机视觉任务

SigLIP模型应用sigmoid损失函数提升多模态处理能力

Vision Transformer图像分类模型在ImageNet数据集上的应用

基于LAION-2B数据集训练的CLIP零样本图像分类模型

基于ViT的NSFW图像检测模型

ResNet v1.5模型及其应用于图像识别

OpenAI开发的CLIP模型实现零样本图像分类和跨模态理解
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号