
专为日本文本检索及句子相似度设计的嵌入模型
模型专注于日本文本处理,可在CPU上运行,提升检索任务性能。通过蒸馏大规模嵌入及多阶段对比学习,GLuCoSE v2在MIRACL等任务中的表现出色。其支持语义相似度测量,适用于查询和段落检索,使用余弦相似度函数,支持512标记的输入,生成768维输出。
GLuCoSE-base-ja-v2 是一个专注于日语文本嵌入的模型,尤其在信息检索任务中表现出色。这个模型可以在普通的CPU上运行,以评估语句间的语义相似性,并作为基于查询的段落搜索系统。
GLuCoSE-base-ja-v2 模型基于 GLuCoSE进行构建,并通过大规模嵌入模型的蒸馏与多阶段对比学习进行微调。
可以使用 SentenceTransformer 进行推理,代码如下:
from sentence_transformers import SentenceTransformer import torch.nn.functional as F # 从 Hugging Face Hub 下载模型 model = SentenceTransformer("pkshatech/GLuCoSE-base-ja-v2") # 每个输入文本应以 "query: " 或 "passage: " 开头。 sentences = [ 'query: PKSHAはどんな会社ですか?', 'passage: 研究開発したアルゴリズムを、多くの企業のソフトウエア・オペレーションに導入しています。', 'query: 日本で一番高い山は?', 'passage: 富士山(ふじさん)は、標高3776.12 m、日本最高峰(剣ヶ峰)の独立峰で、その優美な風貌は日本国外でも日本の象徴として広く知られている。', ] embeddings = model.encode(sentences,convert_to_tensor=True) print(embeddings.shape) # [4, 768] # 获取嵌入的相似性得分 similarities = F.cosine_similarity(embeddings.unsqueeze(0), embeddings.unsqueeze(1), dim=2) print(similarities) # [[1.0000, 0.6050, 0.4341, 0.5537], # [0.6050, 1.0000, 0.5018, 0.6815], # [0.4341, 0.5018, 1.0000, 0.7534], # [0.5537, 0.6815, 0.7534, 1.0000]]
还可以使用 Transformers 进行推理,代码如下:
import torch.nn.functional as F from torch import Tensor from transformers import AutoTokenizer, AutoModel def mean_pooling(last_hidden_states: Tensor,attention_mask: Tensor) -> Tensor: emb = last_hidden_states * attention_mask.unsqueeze(-1) emb = emb.sum(dim=1) / attention_mask.sum(dim=1).unsqueeze(-1) return emb # 从 Hugging Face Hub 下载模型 tokenizer = AutoTokenizer.from_pretrained("pkshatech/GLuCoSE-base-ja-v2") model = AutoModel.from_pretrained("pkshatech/GLuCoSE-base-ja-v2") # 每个输入文本应以 "query: " 或 "passage: " 开头。 sentences = [ 'query: PKSHAはどんな会社ですか?', 'passage: 研究開発したアルゴリズムを、多くの企業のソフトウエア・オペレーションに導入しています。', 'query: 日本で一番高い山は?', 'passage: 富士山(ふじさん)は、標高3776.12 m、日本最高峰(剣ヶ峰)の独立峰で、その優美な風貌は日本国外でも日本の象徴として広く知られている。', ] # 令输入文本进行标记化 batch_dict = tokenizer(sentences, max_length=512, padding=True, truncation=True, return_tensors='pt') outputs = model(**batch_dict) embeddings = mean_pooling(outputs.last_hidden_state, batch_dict['attention_mask']) print(embeddings.shape) # [4, 768] # 获取嵌入的相似性得分 similarities = F.cosine_similarity(embeddings.unsqueeze(0), embeddings.unsqueeze(1), dim=2) print(similarities) # [[1.0000, 0.6050, 0.4341, 0.5537], # [0.6050, 1.0000, 0.5018, 0.6815], # [0.4341, 0.5018, 1.0000, 0.7534], # [0.5537, 0.6815, 0.7534, 1.0000]]
GLuCoSE v2 的微调包括以下步骤:
步骤1:集成蒸馏
步骤2:对比学习
步骤3:检索特定的对比学习
模型在多个数据集上进行评估,并与其他模型进行对比,GLuCoSE v2 在某些指标上表现优异。
| 模型 | 大小 | MIRACL<br>Recall@5 | JQaRA<br>nDCG@10 | JaCWIR<br>MAP@10 | MLDR<br>nDCG@10 |
|---|---|---|---|---|---|
| GLuCoSE v2 | 0.1B | 85.5 | 60.6 | 85.3 | 33.8 |
在 JMTEB 基准上,GLuCoSE v2 的表现也优于许多其他模型。
| 模型 | 大小 | 平均值 | 检索 | STS | 分类 | 重排序 | 聚类 | 对比分类 |
|---|---|---|---|---|---|---|---|---|
| GLuCoSE v2 | 0.1B | 72.23 | 73.36 | 82.96 | 74.21 | 93.01 | 48.65 | 62.37 |
Chihiro Yano、Mocho Go、Hideyuki Tachibana、Hiroto Takegawa、Yotaro Watanabe 共同参与了该项目的开发。
该模型采用 Apache许可证2.0版本发布,可供公众自由使用和改进。


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作 ,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通 过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


AI论文写作指导平台
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号