
快速文本重排序解决方案,支持最长8192个token处理

小型BERT模型适用于有限计算资源的高效预训练

中文自然语言处理的全词掩码预训练模型

BERT迷你模型优化低资源环境下的应用

24种BERT小模型为计算资源有限的研究环境提供支持

高速文本重排序方案,专为长文本和搜索优化设计

瑞典句子变换模型,多语言句子嵌入优化

TCT-ColBERT-V2 模型的变体再现与知识蒸馏整合

小型BERT模型在资源受限环境中的表现及应用策略

基于平衡主 题感知采样的高效密集检索方案

小型化俄语对话模型提升推理速度

BERT小型模型为资源受限环境提供高效自然语言处理解决方案

精简BERT模型系列适用于计算资源受限场景

BERT中型变体模型用于高效下游任务训练

轻量高效的Stable Diffusion文图生成模型

动态分辨率视觉模型提供高效特征提取和OCR功能

经过蒸馏的俄语对话模型 提升速度减少参数

跨架构蒸馏技术打造的14B参数高性能语言模型

DistilBERT模型在SQuAD问答任务上的ONNX转换优化

DistilBERT问答模型 轻量快速接近BERT性能
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号