前言 elasticsearch(下面简称ES,安装ES点击这里)的自带standard分词只能把汉语分割成一个个字,而不能分词.分段,这就是我们需要分析器ik的地方了. 一.下载ik的相应版本 查看版本和下载链接点击这里 这里提供5.0.0的ES及以前的版本对应的ik版本 二.下载的方式 我这里的ES是2.4.1,对应的ik版本是1.10.1 在版本里选择1.10.1,点击[clone or download]按钮,我这里上传文件比较方便,我直接点击下载. 如果不方便的话,可以点击了[clon…
前言 elasticsearch(下面简称ES)使用jdbc连接mysql比go-mysql-elasticsearch的elasticsearch-river-jdbc能够很好的支持增量数据更新的问题(来自go-mysql-elasticsearch的作者siddontang). 其实jdbc是不需要安装的,只需要下载已经编译好的包,配置一下环境路径,即可使用,不会编译的就不要下载github里面的任何分支,因为那些都是源码,还没编译的.你用那些只会得到以下的结果,博主在这里坑了两个小时. 找…
Elasticsearch默认提供的分词器,会把每一个汉字分开,而不是我们想要的依据关键词来分词.比如: curl -XPOST "http://localhost:9200/userinfo/_analyze?analyzer=standard&pretty=true&text=我是中国人" 我们会得到这种结果: { tokens: [ { token: text start_offset: 2 end_offset: 6 type: <ALPHANUM>…
elasticsearch-analysis-ik 是一款中文的分词插件,支持自定义词库. 安装步骤: 1.到github网站下载源代码,网站地址为:https://github.com/medcl/elasticsearch-analysis-ik 右侧下方有一个按钮"Download ZIP",点击下载源代码elasticsearch-analysis-ik-master.zip. 2.解压文件elasticsearch-analysis-ik-master.zip,进入下载目录,…
前言 elasticsearch(下面简称ES,安装ES点击这里)的自带standard分词只能把汉语分割成一个个字,而不能分词.分段,这就是我们需要分析器ik的地方了. http://{ip}:9200/_analyze?analyzer=standard&pretty=true&text=sojson中华人民共和国 访问浏览器(虚拟机IP:9200)查看你elasticsearch的版本号 一.下载ik的相应版本 查看版本和下载链接点击这里 这里提供5.0.0的ES及以前的版本对应的i…
Install IK 源码地址:https://github.com/medcl/elasticsearch-analysis-ik,git clone下来. 1.compile mvn package copy and unzip target/releases/elasticsearch-analysis-ik-{version}.zip to your-es-root/plugins/ik 2.restart elasticsearch Tips: ik_max_word: 会将文本做最细…
  ElasticSearch系列学习 ElasticSearch第一步-环境配置 ElasticSearch第二步-CRUD之Sense ElasticSearch第三步-中文分词 ElasticSearch第四步-查询详解 ElasticSearch第五步-.net平台下c#操作ElasticSearch详解 elasticsearch官方只提供smartcn这个中文分词插件,效果不是很好,好在国内有medcl大神(国内最早研究es的人之一)写的两个中文分词插件,一个是ik的,一个是mmse…
正因为Elasticsearch 内置的分词器对中文不友好,会把中文分成单个字来进行全文检索,所以我们需要借助中文分词插件来解决这个问题. 一.安装maven管理工具 Elasticsearch 要使用 ik,就要先构建 ik 的 jar包,这里要用到 maven 包管理工具,而 maven 依赖java 环境,上一篇文章已经确保安装了java环境 链接:https://pan.baidu.com/s/1MEOh28XoKjU_KMKj1ebJyQ 密码:edc9 //百度云apache-mav…
原文:http://blog.java1234.com/blog/articles/373.html elasticsearch安装中文分词器插件smartcn elasticsearch默认分词器比较坑,中文的话,直接分词成单个汉字. 我们这里来介绍下smartcn插件,这个是官方推荐的,中科院搞的,基本能满足需求: 还有另外一个IK分词器.假如需要自定义词库的话,那就去搞下IK,主页地址:https://github.com/medcl/elasticsearch-analysis-ik s…
安装Elasticsearch安装中文分词器IK的步骤: 1. 停止elasticsearch 2.2的服务 2. 在以下地址下载对应的elasticsearch-analysis-ik插件安装包(版本要和elasticsearch版本对应). https://github.com/medcl/elasticsearch-analysis-ik/releases 我这里下载的是: https://github.com/medcl/elasticsearch-analysis-ik/release…