
将自监督DINO方法应用于视觉变换器以增强图像特征提取能力

采用ViT技术的视觉Transformer模型

EVA02模型利用遮掩图像建模增强特征提取

移动网络V3小型模型的图像分类与优化方法

增强的视觉转换器模型及其在图像分类中的应用

视觉特征学习的Transformer模型

ConvNeXt-V2:精准高效的图像分类模型

无需微调,实现高效图像分类的自监督视觉转换器

ResNet-B模型实现高效图像识别与分析

基于微调的ResNet-50实现高精度猫狗图像分类

日语CLIP模型,支持图像和文本的零样本分类与检索

ResNetRS-B模型提供的图像信息处理新选择

基于EfficientNet架构的tf_efficientnet_b0.in1k模型解析

LeViT卷积图像分类模型具备快速推理能力

支持多任务图像处理的预训练模型

基于ImageNet-22K数据集的ConvNeXt V2全卷积模型

基于Vision Transformer的无监督视觉特征提取模型

基于ViT架构的图像分类模型,兼容PyTorch

使用Xenova/clip-vit-base-patch32实现Transformers.js的零样本图像分类

使用ImageNet数据集进行图像分类的Vision Transformer模型
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号