首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

ElasticSearch中文分词器-IK分词器的使用

IK分词器的使用 首先我们通过Postman发送GET请求查询分词效果 GET http://localhost:9200/_analyze { "text":"农业银行" } 得到如下结果,可以发现...es的默认分词器无法识别中文中农业、银行这样的词汇,而是简单的将每个字拆完分为一个词,这显然不符合我们的使用要求。...3 } ] } 首先我们访问 https://github.com/medcl/elasticsearch-analysis-ik/releases 下载与es对应版本的中文分词器...localhost:9200/_analyze { "analyzer":"ik_max_word", "text":"弗雷尔卓德" } 仅仅可以得到每个字的分词结果,我们需要做的就是使分词器识别到弗雷尔卓德也是一个词语...-- words_location --> 再次查询发现es的分词器可以识别到弗雷尔卓德词汇

1.6K50

ES中文检索须知:分词器与中文分词器

分词器 作用 分词对象 结果示例 Standard Analyzer 标准分词器,也是默认的分词器,基于Unicode文本分割算法。...,是一种专业分词器,可通过创建指纹来进行重复检测的 - - Custom Analyzer 如果以上没有符合需求的分词器,es也允许通过添加插件的方式添加自定义分词器 - - 注:停用词,英文称为Stop...中文分词器 常用的中文分词器有两个比较主流的:ik analyzer和smartcn(Smart Chinese Analyzer) ik analyzer ik analyzer 是一个基于开源项目IK...Analysis进行开发的第三方的中文分词器。...参考文献 ElasticSearch 中的中文分词器以及索引基本操作详解 【9种】ElasticSearch分词器详解,一文get!!!| 博学谷狂野架构师 ELK(六)分词器

28620

ES 中文分词器ik

环境构建到此结束. 2、ik分词器安装部署 下载地址 注意es和ik分词器的版本匹配.这里下载8.2.3的ik分词器 下载完毕之后去es的工作目录的plugins文件夹下新建ik文件夹,将下载下来的ik...压缩包解压缩至ik文件夹下,重启es,集群中所有节点重复此操作. 3、ik 分词器简介 3.1 词库介绍 ik分词器主要有以下词库,位于config目录下 (1)、main.dic 主词库,包含日常生活中常用的词...-- words_location --> 主要用于扩展配置.  3.3 使用方式 ik分词器主要分为...: "CN_CHAR", "position" : 8 } ] } 根据分词结果,很明显ik_max_word分的粒度更加的细和全面,所以一般都是用ik_max_word作为分词器...end_offset" : 3, "type" : "CN_WORD", "position" : 0 } ] } 啊啦搜被作为一个词进行了分词,说明自定义词库生效了. 4、ik 分词器字库远程热更新

85420

快速学习-IK分词器

4 IK分词器 4.1 测试分词器 在添加文档时会进行分词,索引中存放的就是一个一个的词(term),当你去搜索时就是拿关键字去匹配词,最终找到词关联的文档。...测试当前索引库使用的分词器: post 发送:localhost:9200/_analyze { "text": "测试分词器,后边是测试内容:spring cloud实战" } 结果如下: ?...会发现分词的效果将 “测试” 这个词拆分成两个单字“测”和“试”,这是因为当前索引库使用的分词器对中文就是单字 分词。 4.2 安装IK分词器 使用IK分词器可以实现对中文分词的效果。...4.3 两种分词模式 ik分词器有两种分词模式:ik_max_word和ik_smart模式。...iK分词器自带一个main.dic的文件,此文件为词库文件。 ?

89720

ES 分词器相关

1、规范化 Normalization 规范化,主要实在ES对文本类型进行分词后,按照各自分词器的规范标准,对分词进行二次处理的过程.如was=>is(时态转换),brother‘s=>brother(...,提升搜索效率,不同的分词器其Normalization流程各不相同. 2、ES 字符过滤器&令牌过滤器 3、分词器 tokenizer 官方文档 官方提供了10余种分词器,默认是standard分词器...它是大多数语言的最佳选择) 2.1 常用分词器(随便介绍两种,具体查阅文档) stanard分词器 GET _analyze { "text": "Xiao chao was a good man"...,舍去了was a等和搜索相关度不高的词. 2.3 中文分词器 关于中文分词器参考ES 中文分词器ik 4、自定义分词器 结合上面的内容,来实现一个自定义分词器....关于过滤器相关参考ES 字符过滤器&令牌过滤器,关于分词器相关参考ES 分词器(示例使用了pattern分词器,参考文档) 执行以上代码后,执行搜索如下搜索代码: GET test_index/_analyze

28920
领券