值得探索的AI开源项目:工具、网站与应用合集

VulBERTa-MLP-VulDeePecker

VulBERTa-MLP-VulDeePecker

开源项目深度学习

基于RoBERTa模型的源代码安全漏洞智能检测系统

gemma-2-2b-it-bnb-4bit

gemma-2-2b-it-bnb-4bit

模型微调机器学习

Gemma模型量化优化实现快速微调与内存高效管理

mt0-small

mt0-small

自然语言处理多语言模型

支持百种语言的神经网络文本生成器

sitad2

sitad2

Replicate开源项目

FLUX.1-dev驱动的AI图像生成LoRA模型

Llama-3.1-Nemotron-70B-Instruct-bnb-4bit

Llama-3.1-Nemotron-70B-Instruct-bnb-4bit

NVIDIA开源项目

基于Unsloth技术的大语言模型高性能微调框架

dpn98.mx_in1k

dpn98.mx_in1k

ImageNet图像分类

基于DPN架构的ImageNet图像分类深度学习模型

fennPhoto

fennPhoto

图像模型Stable Diffusion

基于真实摄影风格的AI图像生成模型

distilbert-base-german-cased

distilbert-base-german-cased

机器学习Github

轻量级德语BERT预训练模型

dreamshaper-xl-1-0

dreamshaper-xl-1-0

图像模型文本生成图像

基于SDXL的图像生成模型支持多种艺术风格创作

bert-toxic-comment-classification

bert-toxic-comment-classification

文本分类机器学习

BERT模型在毒性评论分类中的应用与实现

Qwen2.5-72B-Instruct-GPTQ-Int4

Qwen2.5-72B-Instruct-GPTQ-Int4

Qwen2.5Github

Qwen2.5-72B模型4位量化版支持128K长文本及多语言处理

SOLAR-10.7B-v1.0

SOLAR-10.7B-v1.0

大模型语言模型

深度扩展技术驱动的大语言模型实现超30B参数级性能

japanese-gpt-neox-3.6b

japanese-gpt-neox-3.6b

GPT-NeoX日语预训练

基于GPT-NeoX架构的36亿参数日语大语言模型

msmarco-distilbert-base-v3

msmarco-distilbert-base-v3

向量映射Github

基于DistilBERT的文本向量化模型支持语义搜索与文本聚类

MiniLMv2-L6-H384-distilled-from-BERT-Large

MiniLMv2-L6-H384-distilled-from-BERT-Large

开源项目自然语言处理

微软开发的轻量压缩型自然语言处理模型

tinyllama-15M

tinyllama-15M

Github人工智能

基于TinyStories数据集训练的15M参数轻量级语言模型

Realistic_Vision_V3.0_VAE

Realistic_Vision_V3.0_VAE

NovaXL图像生成

内置VAE优化的写实风格AI图像生成模型

IgBert

IgBert

抗体序列IgBert

专注抗体序列分析的预训练语言模型

TinyLlama-1.1B-Chat-v1.0-GGUF

TinyLlama-1.1B-Chat-v1.0-GGUF

TinyLlama大语言模型

TinyLlama 轻量级语言模型的量化优化版

mformer-authority

mformer-authority

transformers自然语言处理

基于Transformers的开源自然语言处理库