
基于ViT的组织病理学自监督学习模型

开源大模型训练工具实现显著提速与内存优化

大规模语言模型支持多语言和多种编程语言

基于T5模型的智能问题重构生成器

基于Transformer的神经网络架构实现精准基因表达预测

基于方言数据的阿拉伯语预训练语言模型

Vision Transformer模型在2100万图像数据集上预训练

基于亲和力模仿和权重继承的CLIP模型压缩方法

基于Llama-2开发的32K长文本理解模型

基于shifted windows的分层视觉Transformer图像处理模型

EfficientNetV2架构的轻量级图像分类模型

采用ResNet101架构的高效图像分类和特征提取模型

Vision Transformer图像分类模型 预训练于ImageNet-21k并微调于ImageNet-1k

强大的自然语言处理模型,采用解耦注意力机制的BERT增强版

基于UltraChat数据集训练的Mistral-7B优化模型

Mistral语言模型的GPTQ量化优化实现

基于神经网络的病理切片图像分析与特征提取模型

视觉Transformer在CIFAR10上的图像分类优化

多语言支持的开源码理解与嵌入模型

使用BERT模型提升问答任务的准确性
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号