ik_max_word ik_smart】的更多相关文章

ik_smart:分词的时候只分一次,句子里面的每个字只会出现一次. 比如:中华人民共和国国歌 入上图,分成:中华人民共和国 国歌 2 部分.每个字都自出现了一次.(我指的每一个位置 的子. 2个国 位置不同,是2 个字) ik_max_word:句子的字可以反复出现. 只要在词库里面出现过的 就拆分出来.如果没有出现的单字.如果已经在词里面出现过,那么这个就不会以单字的形势出现. 一般我们用 ik_max_word  .但是 ik_max_word   不是每一个单字都有,比如上面 搜索 中…
打开 ~/es_root/config/elasticsearch.yml 文件,加入以下配置: index: analysis: analyzer: ik_syno: type: custom tokenizer: ik_max_word filter: [my_synonym_filter] ik_syno_smart: type: custom tokenizer: ik_smart filter: [my_synonym_filter] filter: my_synonym_filter…
前提条件 elasticsearch使用版本5.6.3,需要jdk版本1.8,低于该版本不能使用 下载 https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-5.6.3.zip 启动 1.进入目录C:\test\es\elasticsearch-5.6.3\bin 2.点击elasticsearch.bat即可启动 验证 中文分词安装 1.进入目录C:\test\es\elasticsearch-5.6.3\bin…
--------------------------------------------------------------- 搜索开始--------------------------------------------------------------- --------------------------------------------------------------- 1 es 5.2 以后  type:text 的字段 或默认建立 一个最长 256 个字符的不分词的 fie…
ElasticSearch 是强大的搜索工具,并且是ELK套件的重要组成部分 好记性不如乱笔头,这次是在windows环境下搭建es中文分词搜索测试环境,步骤如下 1.安装jdk1.8,配置好环境变量 2.下载ElasticSearch7.1.1,版本变化比较快,刚才看了下最新版已经是7.2.0,本环境基于7.1.1搭建,下载地址https://www.elastic.co/cn/downloads/elasticsearch,得到一个zip压缩包,解压缩后cmd下运行下面的命令即可启动ES .…
前言:建议kibana语法一定要学好! 1       软件安装 1.1     ES的安装 第一步:解压压缩包,放到一个没有中文没有空格的位置 第二步:修改配置文件 1.  jvm.options 第22和23行 -Xms128m -Xmx128m 2.  elasticsearch.yml 第33行和37行 path.data: D:\class96\elasticsearch-6.2.4\data # # Path to log files: # path.logs: D:\class96…
ES入门三部曲:索引操作,映射操作,文档操作 一.索引操作 1.创建索引库 #语法 PUT /索引名称 { "settings": { "属性名": "属性值" } } #示例 PUT /es_index 说明:settings是索引库的设置,可以定义各种属性,一般可以不填写,直接走默认. 2.判断索引是否存在 #语法 HEAD /索引名称 #示例 HEAD /es_index 3.查看索引 # 语法 GET /索引名称 # 示例 GET /es…
一.安装IK分词器 Elasticsearch也需要安装IK分析器以实现对中文更好的分词支持. 去Github下载最新版elasticsearch-ik https://github.com/medcl/elasticsearch-analysis-ik/releases 将ik文件夹放在elasticsearch/plugins目录下,重启elasticsearch. Console控制台输出: [2019-09-04T08:50:23,395][INFO ][o.e.p.PluginsSer…
如果直接使用Elasticsearch的朋友在处理中文内容的搜索时,肯定会遇到很尴尬的问题--中文词语被分成了一个一个的汉字,当用Kibana作图的时候,按照term来分组,结果一个汉字被分成了一组. 这是因为使用了Elasticsearch中默认的标准分词器,这个分词器在处理中文的时候会把中文单词切分成一个一个的汉字,因此引入中文的分词器就能解决这个问题. 本篇文章按照下面的内容进行描述: 分词器的作用 安装IK 简单的测试 模拟测试 安装elasticsearch-analysis-piny…
Install IK 源码地址:https://github.com/medcl/elasticsearch-analysis-ik,git clone下来. 1.compile mvn package copy and unzip target/releases/elasticsearch-analysis-ik-{version}.zip to your-es-root/plugins/ik 2.restart elasticsearch Tips: ik_max_word: 会将文本做最细…