!!!该系列使用三台虚拟机搭建一个完整的spark集群,集群环境如下:

virtualBox5.2、Ubuntu14.04、securecrt7.3.6_x64英文版(连接虚拟机)

jdk1.7.0、hadoop2.6.5、zookeeper3.4.5、Scala2.12.6、kafka_2.9.2-0.8.1、park1.3.1-bin-hadoop2.6

第一篇:准备三台虚拟机环境,配置静态IP,ssh免密码登录

第二篇:搭建hadoop集群

第三篇:搭建zookeeper集群

第四篇:搭建kafka集群

第五篇:搭建spark集群

本文在前面基础上搭建zookeeper集群

一、spark1上

下面操作均在spark1上进行

1、下载解压移动重命名

3、配置zoo.cfg

$ cd /usr/local/bigdata/zk/conf
$ cp zoo_sample.cfg zoo.cfg
$ vim zoo.cfg

修改dataDir,添加如下:

dataDir=/usr/local/bigdata/zk/data
server.0=spark1:2888:3888
server.1=spark2:2888:3888
server.2=spark3:2888:3888

4、添加标识

$ cd ..
$ mkdir data
$ cd data
$ vim myid
#在myid 文件写入0

二、另外两台机器

1、将spark1上的zookeeper复制到spark2和spark3上

root@spark1:/usr/local/bigdata# scp -r zk root@spark2://usr/local/bigdata/
root@spark1:/usr/local/bigdata# scp -r zk root@spark3://usr/local/bigdata/

2、同理修改 spark2 myid 为1, spark3  myid 为2(这里序号要与zoo.cfg文件中序号一致)

root@spark1:/usr/local/bigdata/zk/data# cat myid
0
root@spark2:/usr/local/bigdata/zk/data# cat myid
1
root@spark3:/usr/local/bigdata/zk/data# cat myid
2

3、配置环境变量(三台机器均需要)

export ZOOKEEPER_HOME=/usr/local/bigdata/zk
export PATH=$PATH:$ZOOKEEPER_HOME/bin

三、启动zookeeper集群

1、启动集群

$ zkServer.sh start   # 启动集群

2、状态如下,一个leader,两个follower,即启动成功,QuorumPeerMain代表zookeeper:

root@spark1:/usr/local/bigdata/zk/conf# zkServer.sh status
JMX enabled by default
Using config: /usr/local/bigdata/zk/bin/../conf/zoo.cfg
Mode: follower

root@spark1:/usr/local/bigdata/zk/conf# jps
2400 SecondaryNameNode
4261 ResourceManager
4150 QuorumPeerMain
2249 DataNode
4458 NodeManager
4733 Jps
2126 NameNode

root@spark2:/usr/local/bigdata/zk/conf# zkServer.sh status
JMX enabled by default
Using config: /usr/local/bigdata/zk/bin/../conf/zoo.cfg
Mode: leader

root@spark2:/usr/local/bigdata/zk/conf# jps
1809 DataNode
3654 NodeManager
3751 Jps
3511 QuorumPeerMain

root@spark3:/usr/local/bigdata/zk/conf# zkServer.sh status
JMX enabled by default
Using config: /usr/local/bigdata/zk/bin/../conf/zoo.cfg
Mode: follower

root@spark3:/usr/local/bigdata/zk/conf# jps
3493 Jps
3253 QuorumPeerMain
3399 NodeManager
1836 DataNode

到这里zookeeper集群就成功安装

进入命令行

$ zkCli.sh

spark集群搭建(三台虚拟机)——zookeeper集群搭建(3)的更多相关文章

  1. ZooKeeper1 利用虚拟机搭建自己的ZooKeeper集群

    前言:       前段时间自己参考网上的文章,梳理了一下基于分布式环境部署的业务系统在解决数据一致性问题上的方案,其中有一个方案是使用ZooKeeper,加之在大数据处理中,ZooKeeper确实起 ...

  2. CentOS7搭建 Hadoop + HBase + Zookeeper集群

    摘要: 本文主要介绍搭建Hadoop.HBase.Zookeeper集群环境的搭建 一.基础环境准备 1.下载安装包(均使用当前最新的稳定版本,截止至2017年05月24日) 1)jdk-8u131 ...

  3. STORM_0001_用vmware拷贝出三个相同的ubuntu搭建小的zookeeper集群

    第一次配置zookeeper的集群 因为想运行storm必须搭建集群在自己的电脑上拷贝了自己的ubuntu虚拟机采用的是vmware给虚拟机分配的地址三个机器的配置基本上一样除了myid这个文件看了这 ...

  4. 搭建真正的zookeeper集群

    搭建zookeeper伪分布式集群 zookeeper是Hadop Ecosystem中非常重要的组件,它的主要功能是为分布式系统提供一致性协调服务, 提供的功能包括配置维护,域名服务,分布式同步和组 ...

  5. solr集群SolrCloud(solr+zookeeper)windows搭建

    SolrCloud是什么 参考 solrCloud官网介绍 http://lucene.apache.org/solr/guide/6_6/solrcloud.html Apache Solr 可以设 ...

  6. Centos 7下VMware三台虚拟机Hadoop集群初体验

    一.下载并安装Centos 7 传送门:https://www.centos.org/download/    注:下载DVD ISO镜像 这里详解一下VMware安装中的两个过程 网卡配置 是Add ...

  7. Spark 系列(七)—— 基于 ZooKeeper 搭建 Spark 高可用集群

    一.集群规划 这里搭建一个 3 节点的 Spark 集群,其中三台主机上均部署 Worker 服务.同时为了保证高可用,除了在 hadoop001 上部署主 Master 服务外,还在 hadoop0 ...

  8. Kafka1 利用虚拟机搭建自己的Kafka集群

    前言:       上周末自己学习了一下Kafka,参考网上的文章,学习过程中还是比较顺利的,遇到的一些问题最终也都解决了,现在将学习的过程记录与此,供以后自己查阅,如果能帮助到其他人,自然是更好的. ...

  9. ZooKeeper学习之路 (九)利用ZooKeeper搭建Hadoop的HA集群

    Hadoop HA 原理概述 为什么会有 hadoop HA 机制呢? HA:High Available,高可用 在Hadoop 2.0之前,在HDFS 集群中NameNode 存在单点故障 (SP ...

  10. zookeeper 集群搭建 转

    通过 VMware ,我们安装了三台虚拟机,用来搭建 zookeeper 集群,虚拟机网络地址如下: hostname                      ipaddress           ...

随机推荐

  1. 基于华为物联网IOT的应用开发 --- 基于.net 的SDK封装

    最近,物联网的概念比较热门,一大批厂商抢着占领物联网的高低,包括有华为物联网.阿里云物联网.腾讯物联网.AWS物联网等等,无法一一列举,一般物联网包含设备侧开发.平台侧开发.应用侧开发,三个部分构成了 ...

  2. HDU 3873 Invade the Mars(带限制条件的Dijkstra)

    题目网址:http://acm.hdu.edu.cn/showproblem.php?pid=3873 思路: 军队可以先等待在城市外面,等保护该城市的城市都被攻破后,直接进城(即进城不用耗费时间). ...

  3. sql注入100种姿势过waf(一):waf 了解

    仅供学习交流如果你有更好的思路可以一起分享,想一起学习的进我主页 首先WAF(Web Application Firewall),俗称Web应用防火墙,主要的目的实际上是用来过滤不正常或者恶意请求包, ...

  4. 在Python中,输出格式:%d , %6d , %-6d, %06d , %.6f的一些区分

    和C/C++编程语言一样 %d 普通的整数输出 i = 1 sum = 0 while i <= 100: sum += i i += 1 print("1到100的和为:%d&quo ...

  5. 2. Rsync-远程同步(上)

    课程大纲: 1.什么是备份? 就是给源文件 增加 一个 副本. U盘 D --> E 2.为什么要做备份? 1.数据重要? 2.防止误操作 3.能够快速恢复 3.能不能不做备份? 可以, 不重要 ...

  6. Jenkins指定tag发布到k8s环境

    Jenkins指定tag发布到k8s环境 1.Jenkins配置一个Pipeline 工程 首先要安装插件:https://www.cnblogs.com/Dev0ps/p/9125232.html ...

  7. ElasticSearch安装及使用

    ElasticSearch安装及使用 ELK由Elasticsearch.Logstash和Kibana三部分组件组成. Elasticsearch 是个开源分布式搜索引擎,它的特点有:分布式,零配置 ...

  8. java架构之路-(Redis专题)redis面试助力满分+

    1.Redis支持的数据类型? 答:五种,在第一节redis相关的博客我就说过,String,Hash,List,Set,zSet,也就是我们的字符串,哈希,列表,集合,有序集合五种.结构图如下. 2 ...

  9. Spring Boot - 访问外部接口最全总结

    Spring Boot - 访问外部接口 在Spring-Boot项目开发中,存在着本模块的代码需要访问外面模块接口,或外部url链接的需求, 比如调用外部的地图API或者天气API. Spring ...

  10. split分割文件与数据

    split主要用途:在之前计算机发展的时候,我们必须分割文件,才能将大量数据放入多张软盘中,而今我们分割文件有了其他的目的,比如提高可读性,生成日志以及发送有大小限制的E-mail附件. 工作原理:s ...