快速文本重排序解决方案,支持最长8192个token处理
小型BERT模型适用于有限计算资源的高效预训练
中文自然语言处理的全词掩码预训练模型
BERT迷你模型优化低资源环境下的应用
24种BERT小模型为计算资源有限的研究环境提供支持
高速文本重排序方案,专为长文本和搜索优化设计
瑞典句子变换模型,多语言句子嵌入优化
TCT-ColBERT-V2 模型的变体再现与知识蒸馏整合
小型BERT模型在资源受限环境中的表现及应用策略
基于平衡主 题感知采样的高效密集检索方案
小型化俄语对话模型提升推理速度
BERT小型模型为资源受限环境提供高效自然语言处理解决方案
精简BERT模型系列适用于计算资源受限场景
BERT中型变体模型用于高效下游任务训练
轻量高效的Stable Diffusion文图生成模型
动态分辨率视觉模型提供高效特征提取和OCR功能
经过蒸馏的俄语对话模型 提升速度减少参数
跨架构蒸馏技术打造的14B参数高性能语言模型
DistilBERT模型在SQuAD问答任务上的ONNX转换优化
DistilBERT问答模型 轻量快速接近BERT性能
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号