tomcat

以tomcat 7为例,位置/work/apache-tomcat-7.0.55

Solr 3.6.2

基本配置

Solr 3.6.2。须要JDK 6/JDK7支持。

下载Solr 3.6.2。解压后,位置:/work/apache-solr-3.6.2。

在tomcat的conf/Catalina/localhost文件夹下,新建solr.xml文件,内容例如以下:

<Context docBase="/work/apache-solr-3.6.2/example/webapps/solr.war" privileged="true" allowLinking="true" crossContext="true">
<Environment name="solr/home" type="java.lang.String" value="/work/apache-solr-3.6.2/example/multicore" override="true" />
</Context>

拷贝example/solr/conf文件夹下的内容,到example/multicore/core0/conf文件夹下,

启动tomcat。訪问:http://localhost:8080/solr/,出现solr界面,则solr的core0基本配置已经完毕。

tomcat优化配置:

<Connector port="9090" protocol="org.apache.coyote.http11.Http11NioProtocol"
executor="tomcatThreadPool"
connectionTimeout="20000"
maxThreads="5000" minSpareThreads="50"
acceptCount="5000" enableLookups="false"
compressableMimeType="text/html,text/xml,text/javascript,text/css,text/plan"
compression="on" compressionMinSize="2048" disableUploadTimeout="true"
redirectPort="8443" URIEncoding="UTF-8"
/>

索引文件位置:core0/data。能够使用du -sh 查看索引大小。

分词器

Lucene3.2-3.6,须要IK Analyzer 2012 U6。

下载IK分词器。在multicore下新建lib文件夹,把IK jar放置到lib文件夹下。比如:IKAnalyzer2012_u6.jar。然后改动multicore下得solr.xml文件,在solr节点中添加属性: sharedLib="lib" 就可以。

假设须要配置扩展词库和停止词库,则须要到tomcat的webapps/solr/WEB_INF文件夹下新建classes文件夹,把IKAnalyzer.cfg.xml和对应的字典文件放置在这个文件夹中,IKAnalyzer.cfg.xml的内容例如以下:

<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
<comment>IK Analyzer Configure</comment>
<!--用户能够在这里配置自己的扩展字典 -->
<entry key="ext_dict">dic1.dic;dic2.dic;</entry> <!--用户能够在这里配置自己的扩展停止词字典-->
<entry key="ext_stopwords">stopword.dic;</entry>
</properties>

字典文件的配置方式为:无BOM的UTF-8编码方式。

注意:有人把IKAnalyzer.cfg.xml和相关配置文件,放到multicore/lib文件夹下。这是不生效的。

然后,在schema.xml中。配置类型:text_general 使用 IK中文分词,配置节点例如以下:

<fieldType name="text_general" class="solr.TextField">
<analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>
<analyzer type="index">
<tokenizer class="org.wltea.analyzer.solr.IKTokenizerFactory" useSmart="false"/>
<filter class="solr.StopFilterFactory" ignoreCase="true" words="stopwords.txt" enablePositionIncrements="true"/>
<filter class="solr.SynonymFilterFactory" synonyms="index_synonyms.txt" ignoreCase="true" expand="false"/>
<filter class="solr.LowerCaseFilterFactory"/>
</analyzer>
<analyzer type="query">
<tokenizer class="org.wltea.analyzer.solr.IKTokenizerFactory" useSmart="true"/>
<filter class="solr.StopFilterFactory" ignoreCase="true" words="stopwords.txt" enablePositionIncrements="true"/>
<filter class="solr.SynonymFilterFactory" synonyms="synonyms.txt" ignoreCase="true" expand="true"/>
<filter class="solr.LowerCaseFilterFactory"/>
</analyzer>
</fieldType>

则全部使用text_general类型的field都会使用IK分词。

关于这样的字段类型的原始配置例如以下:

<fieldType name="text_general" class="solr.TextField" positionIncrementGap="100">
<analyzer type="index">
<tokenizer class="solr.StandardTokenizerFactory"/>
<filter class="solr.StopFilterFactory" ignoreCase="true" words="stopwords.txt" />
<!-- in this example, we will only use synonyms at query time
<filter class="solr.SynonymFilterFactory" synonyms="index_synonyms.txt" ignoreCase="true" expand="false"/>
-->
<filter class="solr.LowerCaseFilterFactory"/>
</analyzer>
<analyzer type="query">
<tokenizer class="solr.StandardTokenizerFactory"/>
<filter class="solr.StopFilterFactory" ignoreCase="true" words="stopwords.txt" />
<filter class="solr.SynonymFilterFactory" synonyms="synonyms.txt" ignoreCase="true" expand="true"/>
<filter class="solr.LowerCaseFilterFactory"/>
</analyzer>
</fieldType>

停止词库

指的是指文本中出现频率非常高,但实际意义又不大的词,主要指副词、虚词、语气词等。如“是”、“而是”等。它主要用在信息检索中。

在为文本或网页建立索引的时候。会去掉这些词。

扩展词库

与自己的业务相关的词库。会作为独立词进行处理。比如:http://blog.csdn.net/shihuacai/article/details/8494360

主从

solrconfig.xml,master机器配置:

<requestHandler name="/replication" class="solr.ReplicationHandler">
<lst name="master">
<str name="replicateAfter">startup</str>
<str name="replicateAfter">optimize</str>
<str name="confFiles">schema.xml</str>
<str name="commitReserveDuration">00:00:30</str>
<str name="numberToKeep">1</str>
</lst>
</requestHandler>

solrconfig.xml,slave机器配置:

<requestHandler name="/replication" class="solr.ReplicationHandler">
<lst name="slave">
<str name="masterUrl">http://ip:8080/solr/core0/replication</str>
<str name="pollInterval">00:00:10</str>
<str name="compression">external</str>
<str name="httpConnTimeout">5000</str>
<str name="httpReadTimeout">10000</str>
</lst>
</requestHandler>

关于compression,有人这样说:external 非常easy有索引大小不正确, 压缩文件损坏这2个问题, 导致复制无法进行, 且一直复制失败, 測试下来internal没不论什么问题;只是我每遇到过。

很多其它内容參考网址:http://wiki.apache.org/solr/SolrReplication 。

Solr 4.9.0

基本配置

Solr 4.9。须要JDK7支持。

下载Sorl 4.9,解压后。位置:/work/solr-4.9.0。

solr\dist\solr-4.9.0.war至tomcat\webapps,并更名为solr.war

重新启动tomcat。solr.war自己主动部署,改动webapps\solr\WEB-INF\web.xml中的solrHome,例如以下:

    <env-entry>
<env-entry-name>solr/home</env-entry-name>
<env-entry-value>/work/solr-4.9.0/example/multicore</env-entry-value>
<env-entry-type>java.lang.String</env-entry-type>
</env-entry>

复制solr-4.9.0\example\lib\ext\*.jar至tomcat\lib

复制solr-4.9.0\example\resources\log4j.properties至tomcat\lib

重新启动tomcat,訪问:http://localhost:8080/solr/,出现solr界面,则solr的基本配置已经完毕。

其它部分和3.6.2类似。

分词器

下载IK Analyzer分词器。lucene4.X和solr4.X的IK Analyzer 要用以下这个版本号IK Analyzer 2012FF_hfl。

jar包放在tomcat/webapps/solr/WEB-INF/lib文件夹下,xml和dic放在tomcat/webapps/solr/WEB-INF/classes文件夹下。

其它。也就是IKAnalyzer.cfg.xml、shema.xml的内容配置,和3.6.2类似,不赘述。

另外。注意,在solr4.9中使用的IK分词器jar包,在schema.xml中应该这样配置:

<fieldType name="text_general" class="solr.TextField">
<analyzer type="index" isMaxWordLength="false" class="org.wltea.analyzer.lucene.IKAnalyzer"/>
<analyzer type="query" isMaxWordLength="true" class="org.wltea.analyzer.lucene.IKAnalyzer"/>
</fieldType>

英文在IK Analyzer 2012FF_hfl中以及没有org.wltea.analyzer.solr包了。

这个我还不确认是在IK Analyzer 2012FF_hfl中就没有了,还是我下载的jar包不全...

主从

和3.6.2类似,不赘述。

Solr3.6.2和Solr4.9.0经常使用配置的更多相关文章

  1. Solr4.8.0源码分析(25)之SolrCloud的Split流程

    Solr4.8.0源码分析(25)之SolrCloud的Split流程(一) 题记:昨天有位网友问我SolrCloud的split的机制是如何的,这个还真不知道,所以今天抽空去看了Split的原理,大 ...

  2. Solr4.8.0源码分析(24)之SolrCloud的Recovery策略(五)

    Solr4.8.0源码分析(24)之SolrCloud的Recovery策略(五) 题记:关于SolrCloud的Recovery策略已经写了四篇了,这篇应该是系统介绍Recovery策略的最后一篇了 ...

  3. Solr4.8.0源码分析(23)之SolrCloud的Recovery策略(四)

    Solr4.8.0源码分析(23)之SolrCloud的Recovery策略(四) 题记:本来计划的SolrCloud的Recovery策略的文章是3篇的,但是没想到Recovery的内容蛮多的,前面 ...

  4. Solr4.8.0源码分析(22)之SolrCloud的Recovery策略(三)

    Solr4.8.0源码分析(22)之SolrCloud的Recovery策略(三) 本文是SolrCloud的Recovery策略系列的第三篇文章,前面两篇主要介绍了Recovery的总体流程,以及P ...

  5. Solr4.8.0源码分析(21)之SolrCloud的Recovery策略(二)

    Solr4.8.0源码分析(21)之SolrCloud的Recovery策略(二) 题记:  前文<Solr4.8.0源码分析(20)之SolrCloud的Recovery策略(一)>中提 ...

  6. Solr4.8.0源码分析(20)之SolrCloud的Recovery策略(一)

    Solr4.8.0源码分析(20)之SolrCloud的Recovery策略(一) 题记: 我们在使用SolrCloud中会经常发现会有备份的shard出现状态Recoverying,这就表明Solr ...

  7. Solr4.8.0源码分析(14)之SolrCloud索引深入(1)

    Solr4.8.0源码分析(14) 之 SolrCloud索引深入(1) 上一章节<Solr In Action 笔记(4) 之 SolrCloud分布式索引基础>简要学习了SolrClo ...

  8. Solr4.8.0源码分析(15) 之 SolrCloud索引深入(2)

    Solr4.8.0源码分析(15) 之 SolrCloud索引深入(2) 上一节主要介绍了SolrCloud分布式索引的整体流程图以及索引链的实现,那么本节开始将分别介绍三个索引过程即LogUpdat ...

  9. Solr4.8.0源码分析(19)之缓存机制(二)

    Solr4.8.0源码分析(19)之缓存机制(二) 前文<Solr4.8.0源码分析(18)之缓存机制(一)>介绍了Solr缓存的生命周期,重点介绍了Solr缓存的warn过程.本节将更深 ...

随机推荐

  1. Web安全测试指南--认证

    认证: 5.1.1.敏感数据传输: 编号 Web_Authen_01_01 用例名称 敏感数据传输保密性测试 用例描述 测试敏感数据是否通过加密通道进行传输以防止信息泄漏. 严重级别 高 前置条件 1 ...

  2. Android Studio导入第三方库的三种方法

    叨叨在前 今天在项目中使用一个图片选择器的第三方框架——GalleryFinal,想要导入源码,以便于修改,于是上完查找了一下方法,想到之前用到过其他导入第三方库的方法,现在做个小总结,以防忘记. A ...

  3. 第六章在U盘上运行openwrt(引导)--补

    1.前言 前面已经把U盘挂在了703N上了,现在只需要打开路由器,使用TTL串口或者putty(ssh模式需要用户名和密码-第一章刷openwrt的时候已经设置好)登陆路由器. 2.将系统内所有文件同 ...

  4. CFR Java Decompiler 反编译

    java反编译,JAD & CFR 目前我们开发中大都使用JAD进行java反编译.这个工具已经过于陈旧,最突出的问题就是经常反编译出错. 使用CFR反编译工具能够很好的解决这个问题,并且支持 ...

  5. 理解PHP的变量,值与引用的关系

    --- title: 理解PHP的变量,值与引用的关系 createdDate: 2015-03-11 category: php --- PHP的变量与C++中的变量是两种截然不容的概念.如果没有理 ...

  6. SaltStack–Job管理

    官方文档:https://docs.saltstack.com/en/2016.11/ref/modules/all/salt.modules.saltutil.html 在SaltStack里面执行 ...

  7. [Python爬虫] 之十六:Selenium +phantomjs 利用 pyquery抓取一点咨询数据

    本篇主要是利用 pyquery来定位抓取数据,而不用xpath,通过和xpath比较,pyquery效率要高. 主要代码: # coding=utf-8 import os import re fro ...

  8. 《Linux操作系统编译构建指南》

    在线阅读地址:http://www.doc88.com/p-5126905896771.html Linux编译构建定制qq群: 521902245 文件夹...0 前言...3 第零章 绪论...5 ...

  9. 纯 PHP 代码最好在文件末尾删除 PHP 结束标记

    如果文件内容是纯 PHP 代码,最好在文件末尾删除 PHP 结束标记.这可以避免在 PHP 结束标记之后万一意外加入了空格或者换行符,会导致 PHP 开始输出这些空白,而脚本中此时并无输出的意图. & ...

  10. vim 多窗口,多tab编辑

    原文: https://blog.csdn.net/shuangde800/article/details/11430659 ------------------------------------- ...