elasticsearch-analysis-ansj 是一个基于 ansj 分词算法的 elasticsearch 中文分词插件。
mvn package
编译成功后,将会生成打包好的插件压缩包:target/releases/elasticsearch-analysis-ansj-<版本号>-release.zip
。
在 es 安装目录下执行以下命令安装插件:
./bin/elasticsearch-plugin install file:///<你的路径>/elasticsearch-analysis-ansj-<版本号>-release.zip
安装完成后,会生成一个默认的配置文件:
<ES_HOME>/config/elasticsearch-analysis-ansj/ansj.cfg.yml
,根据需要修改此文件即可。
安装完成后,启动 es 集群。通过以下方式测试是否安装正确:
方法一:
通过 kibana
执行 GET /_cat/ansj?text=中国&type=index_ansj
命令,测试 index_ansj
分词器,返回内容如下:
{ "result": [ { "name": "中国", "nature": "ns", "offe": 0, "realName": "中国", "synonyms": null }, { "name": "中", "nature": "f", "offe": 0, "realName": "中", "synonyms": null }, { "name": "国", "nature": "n", "offe": 1, "realName": "国", "synonyms": null } ] }
方法二:
通过 kibana
执行 GET /_cat/ansj/config
命令,获取配置文件内容如下:
{ "ambiguity": [ "ambiguity" ], "stop": [ "stop" ], "synonyms": [ "synonyms" ], "crf": [ "crf" ], "isQuantifierRecognition": "true", "isRealName": "false", "isNumRecognition": "true", "isNameRecognition": "true", "dic": [ "dic" ] }
PUT /test_index?pretty { "settings" : { "index" : { "number_of_shards" : 16, "number_of_replicas" : 1, "refresh_interval":"5s" } }, "mappings" : { "properties" : { "test_field": { "type": "text", "analyzer": "index_ansj", "search_analyzer": "query_ansj" } } } }
说明:
test_index
: 用于测试的索引名称;test_field
: 用于测试的字段;- 指定字段的索引分词器为:
index_ansj
;- 指定字段的搜索分词器为:
query_ansj
;
测试索引配置是否正确:
POST /test_index/_analyze { "field": "test_field", "text": "中国" }
PUT test_index/_bulk?refresh {"create":{ }} { "test_field" : "中国" } {"create":{ }} { "test_field" : "中华人民共和国" } {"create":{ }} { "test_field" : "中国有56个民族" } {"create":{ }} { "test_field" : "中国是社会主义国家" }
GET test_index/_search { "query": { "match": { "test_field": { "query": "中国" } } } }
注意:
- 上述操作语句都是在
kibana
的dev_tools
里执行的;- 上述操作语句仅在 es
8.x
版本上测试过,其它版本请根据实际情况调整。
安装插件后,在 es 集群中会增加以下功能:
三个 analyzer:
三个 tokenizer:
http 接口:
ansj: #默认参数配置 isNameRecognition: true #开启姓名识别 isNumRecognition: true #开启数字识别 isQuantifierRecognition: true #是否数字和量词合并 isRealName: false #是否保留真实词语,建议保留false #用户自定词典配置 #dic: default.dic #也可以写成 file://default.dic , 如果未配置dic,则此词典默认加载 # http方式加载 #dic_d1: http://xxx/xx.dic # jar中文件加载 #dic_d2: jar://org.ansj.dic.DicReader|/dic2.dic # 从数据库中加载 #dic_d3: jdbc://jdbc:mysql://xxxx:3306/ttt?useUnicode=true&characterEncoding=utf-8&zeroDateTimeBehavior=convertToNull|username|password|select name as name,nature,freq from dic where type=1 # 从自定义类中加载,YourClas extends PathToStream #dic_d3: class://xxx.xxx.YourClas|ohterparam #过滤词典配置 #stop: http,file,jar,class,jdbc 都支持 #stop_key1: ... #歧义词典配置 #ambiguity: http,file,jar,class,jdbc 都支持 #ambiguity_key1: ... #同义词词典配置 #synonyms: http,file,jar,class,jdbc 都支持 #synonyms_key1: ...
ansj: # 开启姓名识别 isNameRecognition: false # 开启数字识别 isNumRecognition: true # 是否数字和量词合并 isQuantifierRecognition: false # 是否保留真实词语 isRealName: false # 词典 dic: file:///data/elasticsearch-dic/ansj/main.dic # 停词(过滤词)词典 stop: file:///data/elasticsearch-dic/ansj/stop.dic # 歧义词词典配置 ambiguity: file:///data/elasticsearch-dic/ansj/ambiguity.dic # 同义词词典配置 synonyms: file:///data/elasticsearch-dic/ansj/synonyms.dic
ansj: # 开启姓名识别 isNameRecognition: false # 开启数字识别 isNumRecognition: true # 是否数字和量词合并 isQuantifierRecognition: false # 是否保留真实词语 isRealName: false # 词典 dic: http://example.com/elasticsearch-dic/ansj/main.dic # 停词(过滤词)词典 stop: http://example.com/elasticsearch-dic/ansj/stop.dic # 歧义词词典配置 ambiguity: http://example.com/elasticsearch-dic/ansj/ambiguity.dic # 同义词词典配置 synonyms: http://example.com/elasticsearch-dic/ansj/synonyms.dic
插件版本 | Elasticsearch版本 |
---|---|
1.0.0 | 0.90.2 |
1.x | 1.x |
2.1.1 | 2.1.1 |
2.3.1 | 2.3.1 |
2.3.2 | 2.3.2 |
2.3.3 | 2.3.3 |
2.3.4 | 2.3.4 |
2.3.5 | 2.3.5 |
2.4.0 | 2.4.0 |
2.4.1 | 2.4.1 |
2.4.2 | 2.4.2 |
2.4.3 | 2.4.3 |
2.4.4 | 2.4.4 |
2.4.5 | 2.4.5 |
2.4.6 | 2.4.6 |
5.0.0 | 5.0.0 |
5.0.1 | 5.0.1 |
5.0.2 | 5.0.2 |
5.1.1 | 5.1.1 |
5.1.2 | 5.1.2 |
5.2.0 | 5.2.0 |
5.2.1 | 5.2.1 |
5.2.2 | 5.2.2 |
5.3.0 | 5.3.0 |
5.3.1 | 5.3.1 |
5.3.2 | 5.3.2 |
5.3.3 | 5.3.3 |
5.4.0 | 5.4.0 |
5.4.1 | 5.4.1 |
5.4.2 | 5.4.2 |
5.4.3 | 5.4.3 |
5.5.0 | 5.5.0 |
5.5.1 | 5.5.1 |
5.5.2 | 5.5.2 |
5.5.3 | 5.5.3 |
5.6.0 | 5.6.0 |
5.6.1 | 5.6.1 |
5.6.2 | 5.6.2 |
5.6.3 | 5.6.3 |
5.6.4 | 5.6.4 |
5.6.5 | 5.6.5 |
5.6.6 | 5.6.6 |
5.6.7 | 5.6.7 |
5.6.8 | 5.6.8 |
5.6.9 | 5.6.9 |
5.6.10 | 5.6.10 |
5.6.11 | 5.6.11 |
5.6.12 | 5.6.12 |
5.6.13 | 5.6.13 |
5.6.14 | 5.6.14 |
5.6.15 | 5.6.15 |
5.6.16 | 5.6.16 |
6.0.0 | 6.0.0 |
6.0.1 | 6.0.1 |
6.1.0 | 6.1.0 |
6.1.1 | 6.1.1 |
6.1.2 | 6.1.2 |
6.1.3 | 6.1.3 |
6.1.4 | 6.1.4 |
6.2.0 | 6.2.0 |
6.2.1 | 6.2.1 |
6.2.2 | 6.2.2 |
6.2.3 | 6.2.3 |
6.2.4 | 6.2.4 |
6.3.0 | 6.3.0 |
6.3.1 | 6.3.1 |
6.3.2 | 6.3.2 |
6.4.0 | 6.4.0 |
6.4.1 | 6.4.1 |
6.4.2 | 6.4.2 |
6.4.3 | 6.4.3 |
6.5.0 | 6.5.0 |
6.5.1 | 6.5.1 |
6.5.2 | 6.5.2 |
6.5.3 | 6.5.3 |
6.5.4 | 6.5.4 |
6.6.0 | 6.6.0 |
6.6.1 | 6.6.1 |
6.6.2 | 6.6.2 |
6.7.0 | 6.7.0 |
6.7.1 | 6.7.1 |
6.7.2 | 6.7.2 |
6.8.0 | 6.8.0 |
6.8.1 | 6.8.1 |
6.8.2 | 6.8.2 |
6.8.3 | 6.8.3 |
6.8.4 | 6.8.4 |
6.8.5 | 6.8.5 |
6.8.6 | 6.8.6 |
6.8.7 | 6.8.7 |
6.8.8 | 6.8.8 |
6.8.9 | 6.8.9 |
6.8.10 | 6.8.10 |
6.8.11 | 6.8.11 |
6.8.12 | 6.8.12 |
6.8.13 | 6.8.13 |
6.8.14 | 6.8.14 |
6.8.15 | 6.8.15 |
6.8.16 | 6.8.16 |
6.8.17 | 6.8.17 |
6.8.18 | 6.8.18 |
6.8.19 | 6.8.19 |
6.8.20 | 6.8.20 |
6.8.21 | 6.8.21 |
6.8.22 | 6.8.22 |
6.8.23 | 6.8.23 |
7.0.0 | 7.0.0 |
7.0.1 | 7.0.1 |
7.1.0 | 7.1.0 |
7.1.1 | 7.1.1 |
7.2.0 | 7.2.0 |
7.2.1 | 7.2.1 |
7.3.0 | 7.3.0 |
7.3.1 | 7.3.1 |
7.3.2 | 7.3.2 |
7.4.0 | 7.4.0 |
7.4.1 | 7.4.1 |
7.4.2 | 7.4.2 |
7.5.0 | 7.5.0 |
7.5.1 | 7.5.1 |
7.5.2 | 7.5.2 |
7.6.0 | 7.6.0 |
7.6.1 | 7.6.1 |
7.6.2 | 7.6.2 |
7.7.0 | 7.7.0 |
7.7.1 | 7.7.1 |
7.8.0 | 7.8.0 |
7.8.1 | 7.8.1 |
7.9.0 | 7.9.0 |
7.9.1 | 7.9.1 |
7.9.2 | 7.9.2 |
7.9.3 | 7.9.3 |
7.17.5 | 7.17.5 |
7.17.7 | 7.17.7 |
7.17.8 | 7.17.8 |
7.17.9 | 7.17.9 |
7.17.10 | 7.17.10 |
7.17.11 | 7.17.11 |
7.17.12 | 7.17.12 |
7.17.13 | 7.17.13 |
7.17.14 | 7.17.14 |
7.17.15 | 7.17.15 |
7.17.16 | 7.17.16 |
7.17.17 | 7.17.17 |
7.17.18 | 7.17.18 |
7.17.19 | 7.17.19 |
7.17.20 | 7.17.20 |
7.17.21 | 7.17.21 |
7.17.22 | 7.17.22 |
8.3.3 | 8.3.3 |
8.5.3 | 8.5.3 |
8.6.0 | 8.6.0 |
8.6.1 | 8.6.1 |
8.6.2 | 8.6.2 |
8.7.0 | 8.7.0 |
8.7.1 | 8.7.1 |
8.8.0 | 8.8.0 |
8.8.1 | 8.8.1 |
8.8.2 | 8.8.2 |
8.9.0 | 8.9.0 |
8.9.1 | 8.9.1 |
8.9.2 | 8.9.2 |
8.10.0 | 8.10.0 |
8.10.1 | 8.10.1 |
8.10.2 | 8.10.2 |
8.10.3 | 8.10.3 |
8.10.4 | 8.10.4 |
8.11.0 | 8.11.0 |
8.11.1 | 8.11.1 |
8.11.2 | 8.11.2 |
8.11.3 | 8.11.3 |
8.11.4 | 8.11.4 |
8.12.0 | 8.12.0 |
8.12.1 | 8.12.1 |
8.12.2 | 8.12.2 |
8.13.0 | 8.13.0 |
8.13.1 | 8.13.1 |
8.13.2 | 8.13.2 |
8.13.3 | 8.13.3 |
8.13.4 | 8.13.4 |
8.14.0 | 8.14.0 |
8.14.1 | 8.14.1 |
8.14.2 | 8.14.2 |
8.14.3 | 8.14.3 |
elasticsearch-analysis-ansj
采用 Apache License 2.0 版本授权。详情请参阅 LICENSE 文件。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户 轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本 到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、 精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI助力,做PPT更简单!
咔片是一款轻 量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、 述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。
openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。
高分辨率纹理 3D 资产生成
Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。
一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。
3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号