
基于DataComp-1B数据集训练的零样本图像分类器
CLIP ViT-L/14是一个基于DataComp-1B大规模数据集训练的多模态模型。在ImageNet-1k上达到79.2%的零样本分类准确率,可用于图像分类、检索等任务。该模型主要面向研究社区,旨在促进对零样本和任意图像分类的探索。由stability.ai提供计算资源支持,不建议直接用于部署或商业用途。
CLIP-ViT-L-14-DataComp.XL-s13B-b90K是一个基于CLIP模型架构的视觉-语言预训练模型。该项目由研究人员使用OpenCLIP框架,在DataComp-1B数据集上进行了大规模训练,旨在推动零样本图像分类和多模态学习等领域的研究进展。
该模型采用了ViT-L/14的视觉骨干网络结构,在包含14亿个图文对的DataComp-1B数据集上进行了训练。训练过程在stability.ai提供的大规模计算集群上完成。这种大规模数据集和强大的计算资源的结合,使得模型能够学习到丰富的视觉-语言表征。
作为一个研究性质的输出,该模型主要面向研究社区使用。研究人员可以利用它来探索零样本图像分类、跨模态检索等任务,也可以将其作为基础模型进行下游任务的微调。此外,该模型还可用于研究人工智能模型的社会影响等跨学科研究。
模型在DataComp-1B数据集上进行了训练,该数据集包含14亿个从公开互联网爬取的图文对。值得注意的是,这是一个未经筛选的大规模数据集,可能包含不适当的内容。研究人员建议仅将其用于研究目的,并谨慎查看数据样本。
研究人员在38个数据集上对模型进行了全面评估。在ImageNet-1k零样本分类任务上,模型达到了79.2%的top-1准确率,展现了强大的迁移学习能力。详细的评估结果可以参考相关论文。
该项目的开源为研究人员提供了宝贵的资源,有助于推动大规模多模态模型训练和处理未经筛选数据集等方面的研究。研究人员希望通过开放数据集和模型,能够促进对此类大规模模型特性和安全性的透明研究。
总的来说,CLIP-ViT-L-14-DataComp.XL-s13B-b90K项目为视觉-语言预训练模型的研究提供了一个强大的基准,有望推动相关领域的进一步发展。


职场AI,就用扣子
AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!


多风格AI绘画神器
堆友平台由阿里巴巴设计团队创建,作为一款AI驱动的设计工具,专为设计师提供一站式增长服务。功能覆盖海量3D素材、AI绘画、实时渲染以及专业抠图,显著提升设计品质和效率。平台不仅提供工具,还是一个促进创意交流和个人发展的空间,界面友好,适合所有级别的设计师和创意工作者。


零代码AI应用开发平台
零代码AI应用开发平台,用户只需一句话简单描述需求,AI能自动生成小程序、APP或H5网页应用,无需编写代码。


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。