深度学习最佳AI工具集合:网站、应用和开源项目

phikon

phikon

自监督学习深度学习

基于ViT的组织病理学自监督学习模型

llama-3-8b-Instruct

llama-3-8b-Instruct

Llama-3内存优化

开源大模型训练工具实现显著提速与内存优化

llm-jp-1.3b-v1.0

llm-jp-1.3b-v1.0

Github开源项目

大规模语言模型支持多语言和多种编程语言

t5_paraphraser

t5_paraphraser

模型训练开源项目

基于T5模型的智能问题重构生成器

enformer-official-rough

enformer-official-rough

长程相互作用深度学习

基于Transformer的神经网络架构实现精准基因表达预测

bert-base-arabic-camelbert-da

bert-base-arabic-camelbert-da

阿拉伯语自然语言处理

基于方言数据的阿拉伯语预训练语言模型

vit-base-patch32-224-in21k

vit-base-patch32-224-in21k

Vision Transformer计算机视觉

Vision Transformer模型在2100万图像数据集上预训练

TinyCLIP-ViT-40M-32-Text-19M-LAION400M

TinyCLIP-ViT-40M-32-Text-19M-LAION400M

Github模型

基于亲和力模仿和权重继承的CLIP模型压缩方法

LLaMA-2-7B-32K

LLaMA-2-7B-32K

Github模型

基于Llama-2开发的32K长文本理解模型

swin-base-patch4-window7-224-in22k

swin-base-patch4-window7-224-in22k

图像识别开源项目

基于shifted windows的分层视觉Transformer图像处理模型

efficientnetv2_rw_s.ra2_in1k

efficientnetv2_rw_s.ra2_in1k

ImageNetGithub

EfficientNetV2架构的轻量级图像分类模型

resnet101.tv_in1k

resnet101.tv_in1k

ImageNet图像分类

采用ResNet101架构的高效图像分类和特征提取模型

vit_small_patch32_224.augreg_in21k_ft_in1k

vit_small_patch32_224.augreg_in21k_ft_in1k

Vision Transformertimm

Vision Transformer图像分类模型 预训练于ImageNet-21k并微调于ImageNet-1k

deberta-v2-xxlarge

deberta-v2-xxlarge

DeBERTaBERT

强大的自然语言处理模型,采用解耦注意力机制的BERT增强版

mistral-7b-sft-beta

mistral-7b-sft-beta

Mistral-7BHuggingFace

基于UltraChat数据集训练的Mistral-7B优化模型

Mistral-7B-OpenOrca-GPTQ

Mistral-7B-OpenOrca-GPTQ

GPTQ量化自然语言处理

Mistral语言模型的GPTQ量化优化实现

Virchow2

Virchow2

图像识别PyTorch

基于神经网络的病理切片图像分析与特征提取模型

vit-base-patch16-224-cifar10

vit-base-patch16-224-cifar10

GithubCIFAR10

视觉Transformer在CIFAR10上的图像分类优化

codesage-small

codesage-small

开源项目模型

多语言支持的开源码理解与嵌入模型

bert-base-uncased-squad2

bert-base-uncased-squad2

问题回答开源项目

使用BERT模型提升问答任务的准确性