多语言轻量级模型提供高 效排序和相似度评估
该多语言轻量级排序模型通过词元压缩和逐层优化,节省资源同时维持高性能。根据使用场景和资源限制,用户可灵活选择模型的压缩比例和输出层次,实现高效推理。项目已在BEIR和MIRACL上达到新SOTA性能,技术细节报告将于稍后发布。
bge-reranker-v2.5-gemma2-lightweight是一个多语言的轻量级模型,被用来重新排列文本的相关性。这种模型不同于传统的嵌入模型,它以问题和文档为输入,直接输出相似度得分,而不是生成嵌入向量。通过输入查询和文段,用户可以获得一个相关性得分,该得分可以通过sigmoid函数映射到[0,1]的浮点值范围内。
该模型基于gemma2-9b模型进行训练,成功地整合了令牌压缩功能和层级减少技术,从而在节省大量资源的同时仍保持出色的性能。具体来说,bge-reranker-v2.5-gemma2-lightweight模型具有以下特点:
该模型支持用户根据具体场景和资源需求选择使用不同的模型配置。它特别适合以下操作:
模型名称 | 基础模型 | 语言 | 压缩层 | 压缩比 | 压缩比例 | 特征 |
---|---|---|---|---|---|---|
bge-reranker-base | xlm-roberta-base | 中文和英文 | - | - | - | 轻量级,易于部署和快速推断 |
bge-reranker-large | xlm-roberta-large | 中文和英文 | - | - | - | 轻量级,易于部署和快速推断 |
bge-reranker-v2-m3 | bge-m3 | 多语言 | - | - | - |