Solr5.2.1+Zookeeper3.4.8分布式集群搭建
1.选取三台服务器
由于机器比较少,现将zookeeper和solr都部署在以下三台机器上。(以下操作都是在172.16.20.101主节点上进行的哦)
172.16.20.101 主节点
172.16.20.102 从节点
172.16.20.103 从节点
2.Zookeeper集群部署
1)访问官网下载zookeeper安装包,我用的是zookeeper-3.4.8.tar.gz
2)解压安装包,我是解压到自己新建的目录/data/zookeeper下。
tar -zxvf zookeeper-3.4.8.tar.gz
3)在/data/zookeeper目录下新建data,logs两个文件夹。
4)进入zookeeper-3.4.8/conf目录,把zoo_sample.cfg文件改成zoo.cfg
cp zoo_sample.cfg zoo.cfg
5)修改zoo.cfg文件,需要修改以下几个地方
dataDir=/data/zookeeper/data
dataLogDir=/data/zookeeper/logs
clientPort=2181
在文件末尾添加:
server.1=172.16.20.101:2888:3888
server.2=172.16.20.102:2888:3888
server.3=172.16.20.103:2888:3888
6)将配置好的zookeeper复制到另外两台服务器上。
scp -r /data/zookeeper root@172.16.20.102:/data
scp -r /data/zookeeper root@172.16.20.103:/data
7)分别在三台服务器的/data/zookeeper/data目录下新建myid文件,内容分别为server.1,server.2,server.3后面的数字,例如:
echo "1" > myid
8)分别进入三台服各器的/data/zookeeper/zookeeper-3.4.8/bin目录下,启动服务。
./zkServer.sh start
9)启动完成后,查看服务状态。
./zkServer.sh status
3.Solr分布式集群部署
1)访问Apache官网下载solr安装包,我用的是solr-5.2.1.zip包。
2)解压安装包,我是解压到自己新建的目录/data/solr下。
unzip solr-5.2.1.zip
3)修改/data/solr/solr-5.2.1/bin/solr.in.sh文件
SOLR_JAVA_MEM="-Xms1G -Xmx1G"
ZK_HOST="172.16.20.101:2181,172.16.20.102:2181,172.16.20.103:2181"
4)将配置好的solr复制到另外两台服务器上。
scp -r /data/solr root@172.16.20.102:/data
scp -r /data/solr root@172.16.20.103:/data
5)在每个节点启动solr服务,进入/data/solr/solr-5.2.1,执行如下命令
bin/solr start
6)在每个节点查看solr运行状态
bin/solr status
7)solr集群搭建完毕,访问solr界面。
http://172.16.20.101:8983/solr
4.Solr集群的操作
以下的操作均是以http://172.16.20.101:8983/solr这个开头访问的,然后跟在这个url后面才是完整的路径。如:我写的/admin/collections?action=DELETE&name=article,则访问路径是:http://172.16.20.101:8983/solr/admin/collections?action=DELETE&name=article
4.1 创建collection
两种方式创建collection,根据路由方式的不同:
第一种implicit路由方式
/admin/collections?action=CREATE&name=article&router.name=implicit&shards=shard1,shard2,shard3&maxShardsPerNode=5&collection.configName=collection3Conf
第二种compositeId路由方式
/admin/collections?action=CREATE&name=article&router.name=compositeId&numShards=5&replicationFactor=1&maxShardsPerNode=5&collection.configName=collection3Conf
或者
/admin/collections?action=CREATE&name=application&router.name=compositeId&numShards=1&replicationFactor=2&maxShardsPerNode=2&collection.configName=application&createNodeSet=172.16.20.102:8983_solr,172.16.20.103:8983_solr
4.2删除collection
/admin/collections?action=DELETE&name=article
4.3增加分片shard
implicit路由实现该需求比较简单,只要创建Shard即可。
/admin/collections?action=CREATESHARD&collection=article&shard=shard1&name=article_shard1_replica2
compositeId路由实现该需求稍微麻烦一下,通过分裂(SPLITSHARD)操作实现。
/admin/collections?action=SPLITSHARD&collection=article&shard=shard1
4.4删除分片shard
/admin/collections?action=DELETESHARD&collection=article&shard=shard1
4.5上传SolrCloud的配置文件到zookeeper,统一保存配置文件
java -classpath .:/data/solr/solr-5.2.1/server/solr-webapp/webapp/WEB-INF/lib/* org.apache.solr.cloud.ZkCLI -cmd upconfig -zkhost 172.16.20.101:2181,172.16.20.102:2181,172.16.20.102:2181 -confdir /data/solr/solr-5.2.1/server/solr/configsets/sample_techproducts_configs/conf/ -confname collection1Conf
4.6将上传到ZooKeeper中配置文件与Collection相关联
java -classpath .:/data/solr/solr-5.2.1/server/solr-webapp/webapp/WEB-INF/lib/* org.apache.solr.cloud.ZkCLI -cmd linkconfig -collection collection1 -confname collection1Conf -zkhost 172.16.20.101:2181,172.16.20.102:2181,172.16.20.103:2181
4.7将配置上传到zookeeper,如果要让正在运行的solr同步加载这些文件,需要让solr重新加载一下配置文件
/admin/collections?action=RELOAD&name=article
1.访问官网下载zookeeper-3.4.8.tar.gz安装包。
Solr5.2.1+Zookeeper3.4.8分布式集群搭建的更多相关文章
- Solr5.2.1+Zookeeper3.4.9分布式集群搭建
1.选取三台服务器 由于机器比较少,现将zookeeper和solr都部署在以下三台机器上.(以下操作都是在172.16.20.101主节点上进行的哦) 172.16.20.101 主节点 172.1 ...
- ubuntu18.04.2 hadoop3.1.2+zookeeper3.5.5高可用完全分布式集群搭建
ubuntu18.04.2 hadoop3.1.2+zookeeper3.5.5高可用完全分布式集群搭建 集群规划: hostname NameNode DataNode JournalNode Re ...
- kafka系列二:多节点分布式集群搭建
上一篇分享了单节点伪分布式集群搭建方法,本篇来分享一下多节点分布式集群搭建方法.多节点分布式集群结构如下图所示: 为了方便查阅,本篇将和上一篇一样从零开始一步一步进行集群搭建. 一.安装Jdk 具体安 ...
- 阿里云ECS服务器部署HADOOP集群(二):HBase完全分布式集群搭建(使用外置ZooKeeper)
本篇将在阿里云ECS服务器部署HADOOP集群(一):Hadoop完全分布式集群环境搭建的基础上搭建,多添加了一个 datanode 节点 . 1 节点环境介绍: 1.1 环境介绍: 服务器:三台阿里 ...
- 阿里云ECS服务器部署HADOOP集群(三):ZooKeeper 完全分布式集群搭建
本篇将在阿里云ECS服务器部署HADOOP集群(一):Hadoop完全分布式集群环境搭建的基础上搭建,多添加了一个 datanode 节点 . 1 节点环境介绍: 1.1 环境介绍: 服务器:三台阿里 ...
- hbase完整分布式集群搭建
简介: hadoop的单机,伪分布式,分布式安装 hadoop2.8 集群 1 (伪分布式搭建 hadoop2.8 ha 集群搭建 hbase完整分布式集群搭建 hadoop完整集群遇到问题汇总 Hb ...
- HBase完全分布式集群搭建
HBase完全分布式集群搭建 hbase和hadoop一样也分为单机版,伪分布式版和完全分布式集群版,此文介绍如何搭建完全分布式集群环境搭建.hbase依赖于hadoop环境,搭建habase之前首先 ...
- Hadoop上路-01_Hadoop2.3.0的分布式集群搭建
一.配置虚拟机软件 下载地址:https://www.virtualbox.org/wiki/downloads 1.虚拟机软件设定 1)进入全集设定 2)常规设定 2.Linux安装配置 1)名称类 ...
- hadoop伪分布式集群搭建与安装(ubuntu系统)
1:Vmware虚拟软件里面安装好Ubuntu操作系统之后使用ifconfig命令查看一下ip; 2:使用Xsheel软件远程链接自己的虚拟机,方便操作.输入自己ubuntu操作系统的账号密码之后就链 ...
随机推荐
- Python自然语言处理学习笔记之评价(evaluationd)
对模型的评价是在test set上进行的,本文首先介绍测试集应该满足的特征,然后介绍四种评价方法. 一.测试集的选择 1.首先,测试集必须是严格独立于训练集的,否则评价结果一定很高,但是虚高,不适用于 ...
- EntityFramework Core并发导致显示插入主键问题
前言 之前讨论过EntityFramework Core中并发问题,按照官网所给并发冲突解决方案以为没有什么问题,但是在做单元测试时发现too young,too siimple,下面我们一起来看看. ...
- 获取app崩溃信息的途径 iOS
获取崩溃日志的几种方法: 1.当用户抱怨闪退时,你可以要求他让设备与iTunes同步,设备与电脑上的iTunes Store同步后,会将崩溃日志保存在电脑上(路径:Mac OS X:~/Library ...
- Python thread local
由于GIL的原因,笔者在日常开发中几乎没有用到python的多线程.如果需要并发,一般使用多进程,对于IO Bound这种情况,使用协程也是不错的注意.但是在python很多的网络库中,都支持多线程, ...
- 基于微博数据用 Python 打造一颗“心”
一年一度的虐狗节刚过去不久,朋友圈各种晒,晒自拍,晒娃,晒美食,秀恩爱的.程序员在晒什么,程序员在加班.但是礼物还是少不了的,送什么好?作为程序员,我准备了一份特别的礼物,用以往发的微博数据打造一颗“ ...
- List<bean>转换Jsonarray知识心得
使用基本的jdbc连接mysql,获取数据. 创建实体类user: package com.json; public class user { private int id; private Stri ...
- 利用jink调试程序,时间不准的解决办法
前几天,做工程,遇到了利用jlink的SWD的模式调试程序,定时器延时不准的问题,上网搜了好多,终于找到了问题所在,感谢万能的网友.时间不对是因为Keil的设置问题. 以下是转自网友: 一.先说说仿真 ...
- Hibernate框架注解
1.使用Hibernate注解的步骤 1.添加jar包 Hibernate-annotations.jar ...
- Bean复制
有的时候我们需要将一个bean的属性赋值到另一个bean的属性中,比如用户提交过来的表单bean需要将该bean中的属性值赋值到对应的数据库bean,我们通常会以这样的方式做: User user = ...
- 普实软件:MES机器数据维护
概述 机器数据有两个菜单,机器主数据在制造数据模块下,机器MES数据相关的设置在MES模块下,两个菜单查看的内容是一致的,但是机器主数据显示的是普通的机器,可做新增.编辑.删除操作,机器MES数据仅做 ...