将自监督DINO方法应用于视觉变换器以增强图像特征提取能力
采用ViT技术的视觉Transformer模型
EVA02模型利用遮掩图像建模增强特征提取
移动网络V3小型模型的图像分类与优化方法
增强的视觉转换器模型及其在图像分类中的应用
视觉特征学习的Transformer模型
ConvNeXt-V2:精准高效的图像分类模型
无需微调,实现高效图像分类的自监督视觉转换器
ResNet-B模型实现高效图像识别与分析
基于微调的ResNet-50实现高精度猫狗图像分类
日语CLIP模型,支持图像和文本的零样本分类与检索
ResNetRS-B模型提供的图像信息处理新选择
基于EfficientNet架构的tf_efficientnet_b0.in1k模型解析
LeViT卷积图像分类模型具备快速推理能力
支持多任务图像处理的预训练模型
基于ImageNet-22K数据集的ConvNeXt V2全卷积模型
基于Vision Transformer的无监督视觉特征提取模型
基于ViT架构的图像分类模型,兼容PyTorch
使用Xenova/clip-vit-base-patch32实现Transformers.js的零样本图像分类
使用ImageNet数据集进行图像分类的Vision Transformer模型
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号