意大利语句向量模型 支持文本特征提取和语义相似度计算
分层文本排序器支持多语言并可调节计算层数实现高效推理
开源LLM模型训练加速工具实现2至5倍速提升并节省70%内存
支持多图片交互分析的开源视觉语言模型
蒸馏版RoBERTa模型在SQuAD 2.0达到84% F1分数
超越SDXL性能的开源AI文生图模型
Qwen2.5-14B模型无审查量化版本集合
智能LLM量化技术实现50%体积压缩并完整保留性能
基于Transformer的高分辨率图像生成模型
Mistral和NVIDIA联合开发的多语言大模型支持128k超长上下文
多语言命名实体识别模型兼顾灵活性与资源效率
基于AraBERT的阿拉伯语情感分析模型实现80%分类准确率
EfficientNet B7图像分类模型 基于Noisy Student半监督学习
基于Transformer架构的多语言语言模型 支持32K上下文
支持写实与动漫风格的Stable Diffusion图像生成模型
PEFT框架的深度学习模型微调实现
基于GLM-4的轻量级中文对话模型量化版本
使用PEFT框架实现GPT2模型的LoRA微调
基于深度学习的x86汇编代码自动转译为C语言系统
Mistral-7B衍生的微调语言模型 基于UltraChat数据集
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号