一、准备工作

首先保证已经安装JDK工具包:

[root@localhost opt]# java -version
java version "1.8.0_144"
Java(TM) SE Runtime Environment (build 1.8.0_144-b01)
Java HotSpot(TM) 64-Bit Server VM (build 25.144-b01, mixed mode)

本文目的在演示solr集群环境的搭建过程,由于资源的限制这里是伪集群。

使用版本如下:

  • solr-8.2.0
  • zookeeper-3.4.14

这里有个坑,本来是使用zookeeper-3.5.5.tar.gz的,但是不知道为什么搭建集群的时候zookeeper节点就是无法正常启动,没办法就只好降低版本使用了3.4.14,再然后在StackOverflow网站上找到答案要使用3.5.5-bin.tar.gz,但是我并没有试过,有空再鼓捣下吧。

二、zookeeper集群

依照个人习惯,下载zookeeper到/opt目录下,为了阅读更直观,以下所有命令都在/opt目录下进行。

解压:

wget https://mirrors.tuna.tsinghua.edu.cn/apache/zookeeper/zookeeper-3.4.14/zookeeper-3.4.14.tar.gz
tar -zxvf zookeeper-3.4.14.tar.gz -C .

在/opt/下创建目录solr-cluster,将zookeeper-3.4.14复制三份到solr-cluster目录下,作为3个节点:

cp -r zookeeper-3.4.14 solr-cluster/zookeeper1
cp -r zookeeper-3.4.14 solr-cluster/zookeeper2
cp -r zookeeper-3.4.14 solr-cluster/zookeeper3

在每个zookeeper目录下都创建一个data目录作为数据存储目录:

mkdir solr-cluster/zookeeper1/data
mkdir solr-cluster/zookeeper2/data
mkdir solr-cluster/zookeeper3/data

在data目录下创建一个myid文件,文件内容表示每个实例的id

echo 1 >> solr-cluster/zookeeper1/data/myid
echo 2 >> solr-cluster/zookeeper2/data/myid
echo 3 >> solr-cluster/zookeeper3/data/myid

复制zookeeper/conf下的zoo_sample.cfg,设置新文件名为zoo.cfg

cp solr-cluster/zookeeper1/conf/zoo_sample.cfg solr-cluster/zookeeper1/conf/zoo.cfg
cp solr-cluster/zookeeper2/conf/zoo_sample.cfg solr-cluster/zookeeper2/conf/zoo.cfg
cp solr-cluster/zookeeper3/conf/zoo_sample.cfg solr-cluster/zookeeper3/conf/zoo.cfg

修改zoo.cfg配置文件,以zookeeper1为例:

dataDir=/opt/solr-cluster/zookeeper1/data
clientPort=2181

dataDir表示zookeeper实例保存数据的目录,clientPort表示客户端连接zookeeper的端口号。

末尾添加如下配置,要注意的是ip后的两个端口号不能冲突:

server.1=192.168.56.99:3181:4881
server.2=192.168.56.99:3182:4882
server.3=192.168.56.99:3183:4883

1,2,3表示节点id,即myid中的内容;3xxx端口号表示zookeeper内部通讯的端口号;4xxx端口号表示zookeeper选举投票端口号。

zookeeper2、zookeeper3以同样的方式分别指定自己的data目录,分别设置clientPort为2182,2183以及添加集群节点列表配置。

启动zookeeper节点:

./solr-cluster/zookeeper1/bin/zkServer.sh start
./solr-cluster/zookeeper2/bin/zkServer.sh start
./solr-cluster/zookeeper3/bin/zkServer.sh start

查看zookeeper状态:

./solr-cluster/zookeeper1/bin/zkServer.sh status
./solr-cluster/zookeeper2/bin/zkServer.sh status
./solr-cluster/zookeeper3/bin/zkServer.sh status

正常情况下,应该出现一个leader,两个follwer。

三、solr集群

复制tomcat到上述solr-cluster目录中,这里创建3个节点:

cp -r apache-tomcat-8.5.47/ solr-cluster/tomcat1
cp -r apache-tomcat-8.5.47/ solr-cluster/tomcat2
cp -r apache-tomcat-8.5.47/ solr-cluster/tomcat3

修改每个节点server.xml文件,这里以tomcat1节点为例:

<!-- 默认为8005 -->
<Server port="8105" shutdown="SHUTDOWN">
<Listener className="org.apache.catalina.startup.VersionLoggerListener" />
...
<!-- 默认为8080 -->
<Connector port="8180" protocol="HTTP/1.1"
connectionTimeout="20000"
redirectPort="8443" />
...
<!-- 默认为8109 -->
<Connector port="8109" protocol="AJP/1.3" redirectPort="8443" />

以同样方式修改为tomcat2,tomcat3,分别为82xx,83xx。

Solr单机环境搭建及配置IK分词器中搭建好的solr复制到tomcat里:

cp solr/tomcat8/webapps/solr/ solr-cluster/tomcat1/webapps/
cp solr/tomcat8/webapps/solr/ solr-cluster/tomcat2/webapps/
cp solr/tomcat8/webapps/solr/ solr-cluster/tomcat3/webapps/

为每一个solr接点创建solrhome,直接复制单机版的solrhome即可。

cp -r solr/solrhome/ solr-cluster/solrhome1
cp -r solr/solrhome/ solr-cluster/solrhome2
cp -r solr/solrhome/ solr-cluster/solrhome3

修改solrhome下的solr.xml配置文件,以下以solrhome1为例:

<solrcloud>
<str name="host">192.168.56.99</str>
<int name="hostPort">8180</int>
<str name="hostContext">${hostContext:solr}</str>
...

host表示tomcat服务节点ip,hostPort表示solr服务端口号。

修改solr服务web.xml配置,将web服务于solrhome目录联系起来,以tomcat1为例:

vim solr-cluster/tomcat1/webapps/solr/WEB-INF/web.xml
<env-entry>
<env-entry-name>solr/home</env-entry-name>
<env-entry-value>/opt/solr-cluster/solrhome1</env-entry-value>
<env-entry-type>java.lang.String</env-entry-type>
</env-entry>

tomcat2、tomcat3相似。

接下来,需要使用zookeeper集中管理solr的配置文件,将solr配置文件上传到zookeeper:

./solr-8.2.0/server/scripts/cloud-scripts/zkcli.sh -zkhost 192.168.56.99:2181,192.168.56.99:2182,192.168.56.99:2183 -cmd upconfig -confdir /opt/solr-cluster/solrhome1/configsets/sample_techproducts_configs/conf -confname solr-cluster-conf
  • 192.168.56.99:2181,192.168.56.99:2182,192.168.56.99:2183表示zookeeper节点列表
  • -cmd upconfig 执行操作
  • /opt/solr-cluster/solrhome1/configsets/sample_techproducts_configs/conf 要上传的配置文件目录,其实主要是managed-schema、solrconfig.xml两个文件
  • -confname solr-cluster-conf 给上传的配置文件起个名儿,这里是solr-cluster-conf

检查上传是否成功:

./solr-8.2.0/server/scripts/cloud-scripts/zkcli.sh
ls /configs

修改tomcat/bin下的catalina.sh,关联solr和zookeeper

#JAVA_OPTS="$JAVA_OPTS -Dorg.apache.catalina.security.SecurityListener.UMASK=`umask`"
JAVA_OPTS="-DzkHost=192.168.56.99:2181,192.168.56.99:2182,192.168.56.99:2183"

这样每个solr实例和zookeeper建立了联系,solr会将自己状态及时发送给zookeeper。

启动tomcat实例,访问管理界面,这个和单机没啥区别。

Solr集群环境搭建的更多相关文章

  1. Solr集群的搭建以及使用(内涵zookeeper集群的搭建指南)

    1   什么是SolrCloud SolrCloud(solr 云)是Solr提供的分布式搜索方案,当你需要大规模,容错,分布式索引和检索能力时使用 SolrCloud.当一个系统的索引数据量少的时候 ...

  2. solr集群的搭建教程和使用入门

    1 什么是SolrCloud? SolrCloud(solr 云)是Solr提供的分布式搜索方案,当你需要大规模,容错,分布式索引和检索能力时使用 SolrCloud. 当一个系统的索引数据量少的时候 ...

  3. Linux环境下SolrCloud集群环境搭建关键步骤

    Linux环境下SolrCloud集群环境搭建关键步骤. 前提条件:已经完成ZooKeeper集群环境搭建. 一.下载介质 官网下载地址:http://www.apache.org/dyn/close ...

  4. ZooKeeper 介绍及集群环境搭建

    本篇由鄙人学习ZooKeeper亲自整理的一些资料 包括:ZooKeeper的介绍,我们要学习ZooKeeper的话,首先就要知道他是干嘛的对吧. 其次教大家如何去安装这个精巧的智慧品! 相信你能研究 ...

  5. solr集群的搭建

    solrCloud 昨天随手写了个solr单机版的搭建,今天准备写一个solr集群的搭建!1.solr集群只要环境配置正确还是比较简单的环境:CentOS-6.4-i386-bin-DVD1.isoj ...

  6. 【Hadoop离线基础总结】zookeeper的介绍以及集群环境搭建、网络编程和RPC的简单了解

    ZooKeeper的介绍以及集群环境搭建.网络编程和RPC的简单了解 ZooKeeper介绍 概述 ZooKeeper是一个分布式协调服务的开源框架,主要用来解决分布式集群中应用系统的一致性问题.例如 ...

  7. Hadoop+Spark:集群环境搭建

    环境准备: 在虚拟机下,大家三台Linux ubuntu 14.04 server x64 系统(下载地址:http://releases.ubuntu.com/14.04.2/ubuntu-14.0 ...

  8. 项目进阶 之 集群环境搭建(三)多管理节点MySQL集群

    上次的博文项目进阶 之 集群环境搭建(二)MySQL集群中,我们搭建了一个基础的MySQL集群,这篇博客咱们继续讲解MySQL集群的相关内容,同时针对上一篇遗留的问题提出一个解决方案. 1.单管理节点 ...

  9. Spark 1.6.1分布式集群环境搭建

    一.软件准备 scala-2.11.8.tgz spark-1.6.1-bin-hadoop2.6.tgz 二.Scala 安装 1.master 机器 (1)下载 scala-2.11.8.tgz, ...

随机推荐

  1. 选择排序--python

    def findSmallest(arr): smallest = arr[0] smallest_index = 0 for i in range(1, len(arr)): if arr[i] & ...

  2. 【Linux 架构】Linux内核架构

    (1)System Call Interface(SCI)------系统调用接口(2)Process Management(PM)-------进程管理模块(3)Memory Management( ...

  3. 函数 FUNCTION

    函数 FUNCTION 定义: 带名字的代码块,用于执行具体任务. 注意: 应给函数指定描述性名称,只是用小写字母和下划线. 函数代码块以 def 关键词开头,后接函数标识符名称和圆括号 (). 任何 ...

  4. P2672跳石头

    这是2015noip的一道二分答案的题目,看了题解才会,, 题目给出石头的位置并且让你踩着石头往前跳,最多删掉m个石头还可以顺利通过,求解最短跳跃距离的最大值. 那么二分什么呢:mid为跳跃的长度.那 ...

  5. Debian/Ubuntu下安装Apache的Mod_Rewrite模块的步骤分享

    启用 Mod_rewrite 模块:sudo a2enmod rewrite 另外,也可以通过将 /etc/apache2/mods-available/rewrite.load 连接到 /etc/a ...

  6. K8S工作原理

    kubernetes(k8s)是docker容器用来编排和管理的工具 我们通过kubectl向k8s Master发出指令.kubernetes Master主要是提供API Server.Sched ...

  7. npm学习(十三)之npm命令

    npm:查看npm所有命令 自己写包可能用到的命令: npm adduser:注册 npm login:登录 npm whami:查看当前用户名 npm init:初始化包的信息 npm publis ...

  8. ISC2016训练赛 phrackCTF--Smali

    测试文件:https://static2.ichunqiu.com/icq/resources/fileupload/phrackCTF/REVERSE/Crackme.smali 参考资料:http ...

  9. Spark-Streaming获取kafka数据的两种方式:Receiver与Direct的方式

    简单理解为:Receiver方式是通过zookeeper来连接kafka队列,Direct方式是直接连接到kafka的节点上获取数据 Receiver 使用Kafka的高层次Consumer API来 ...

  10. vue创建项目配置脚手架vue-cli环境出错

    1.at process._tickCallback (internal/process/next_tick.js:188:7)  npm ERR! message: 'request to http ...