!!!该系列使用三台虚拟机搭建一个完整的spark集群,集群环境如下:

virtualBox5.2、Ubuntu14.04、securecrt7.3.6_x64英文版(连接虚拟机)

jdk1.7.0、hadoop2.6.5、zookeeper3.4.5、Scala2.12.6、kafka_2.9.2-0.8.1、park1.3.1-bin-hadoop2.6

第一篇:准备三台虚拟机环境,配置静态IP,ssh免密码登录

第二篇:搭建hadoop集群

第三篇:搭建zookeeper集群

第四篇:搭建kafka集群

第五篇:搭建spark集群

本文在前面基础上搭建zookeeper集群

一、spark1上

下面操作均在spark1上进行

1、下载解压移动重命名

3、配置zoo.cfg

$ cd /usr/local/bigdata/zk/conf
$ cp zoo_sample.cfg zoo.cfg
$ vim zoo.cfg

修改dataDir,添加如下:

dataDir=/usr/local/bigdata/zk/data
server.0=spark1:2888:3888
server.1=spark2:2888:3888
server.2=spark3:2888:3888

4、添加标识

$ cd ..
$ mkdir data
$ cd data
$ vim myid
#在myid 文件写入0

二、另外两台机器

1、将spark1上的zookeeper复制到spark2和spark3上

root@spark1:/usr/local/bigdata# scp -r zk root@spark2://usr/local/bigdata/
root@spark1:/usr/local/bigdata# scp -r zk root@spark3://usr/local/bigdata/

2、同理修改 spark2 myid 为1, spark3  myid 为2(这里序号要与zoo.cfg文件中序号一致)

root@spark1:/usr/local/bigdata/zk/data# cat myid
0
root@spark2:/usr/local/bigdata/zk/data# cat myid
1
root@spark3:/usr/local/bigdata/zk/data# cat myid
2

3、配置环境变量(三台机器均需要)

export ZOOKEEPER_HOME=/usr/local/bigdata/zk
export PATH=$PATH:$ZOOKEEPER_HOME/bin

三、启动zookeeper集群

1、启动集群

$ zkServer.sh start   # 启动集群

2、状态如下,一个leader,两个follower,即启动成功,QuorumPeerMain代表zookeeper:

root@spark1:/usr/local/bigdata/zk/conf# zkServer.sh status
JMX enabled by default
Using config: /usr/local/bigdata/zk/bin/../conf/zoo.cfg
Mode: follower

root@spark1:/usr/local/bigdata/zk/conf# jps
2400 SecondaryNameNode
4261 ResourceManager
4150 QuorumPeerMain
2249 DataNode
4458 NodeManager
4733 Jps
2126 NameNode

root@spark2:/usr/local/bigdata/zk/conf# zkServer.sh status
JMX enabled by default
Using config: /usr/local/bigdata/zk/bin/../conf/zoo.cfg
Mode: leader

root@spark2:/usr/local/bigdata/zk/conf# jps
1809 DataNode
3654 NodeManager
3751 Jps
3511 QuorumPeerMain

root@spark3:/usr/local/bigdata/zk/conf# zkServer.sh status
JMX enabled by default
Using config: /usr/local/bigdata/zk/bin/../conf/zoo.cfg
Mode: follower

root@spark3:/usr/local/bigdata/zk/conf# jps
3493 Jps
3253 QuorumPeerMain
3399 NodeManager
1836 DataNode

到这里zookeeper集群就成功安装

进入命令行

$ zkCli.sh

spark集群搭建(三台虚拟机)——zookeeper集群搭建(3)的更多相关文章

  1. ZooKeeper1 利用虚拟机搭建自己的ZooKeeper集群

    前言:       前段时间自己参考网上的文章,梳理了一下基于分布式环境部署的业务系统在解决数据一致性问题上的方案,其中有一个方案是使用ZooKeeper,加之在大数据处理中,ZooKeeper确实起 ...

  2. CentOS7搭建 Hadoop + HBase + Zookeeper集群

    摘要: 本文主要介绍搭建Hadoop.HBase.Zookeeper集群环境的搭建 一.基础环境准备 1.下载安装包(均使用当前最新的稳定版本,截止至2017年05月24日) 1)jdk-8u131 ...

  3. STORM_0001_用vmware拷贝出三个相同的ubuntu搭建小的zookeeper集群

    第一次配置zookeeper的集群 因为想运行storm必须搭建集群在自己的电脑上拷贝了自己的ubuntu虚拟机采用的是vmware给虚拟机分配的地址三个机器的配置基本上一样除了myid这个文件看了这 ...

  4. 搭建真正的zookeeper集群

    搭建zookeeper伪分布式集群 zookeeper是Hadop Ecosystem中非常重要的组件,它的主要功能是为分布式系统提供一致性协调服务, 提供的功能包括配置维护,域名服务,分布式同步和组 ...

  5. solr集群SolrCloud(solr+zookeeper)windows搭建

    SolrCloud是什么 参考 solrCloud官网介绍 http://lucene.apache.org/solr/guide/6_6/solrcloud.html Apache Solr 可以设 ...

  6. Centos 7下VMware三台虚拟机Hadoop集群初体验

    一.下载并安装Centos 7 传送门:https://www.centos.org/download/    注:下载DVD ISO镜像 这里详解一下VMware安装中的两个过程 网卡配置 是Add ...

  7. Spark 系列(七)—— 基于 ZooKeeper 搭建 Spark 高可用集群

    一.集群规划 这里搭建一个 3 节点的 Spark 集群,其中三台主机上均部署 Worker 服务.同时为了保证高可用,除了在 hadoop001 上部署主 Master 服务外,还在 hadoop0 ...

  8. Kafka1 利用虚拟机搭建自己的Kafka集群

    前言:       上周末自己学习了一下Kafka,参考网上的文章,学习过程中还是比较顺利的,遇到的一些问题最终也都解决了,现在将学习的过程记录与此,供以后自己查阅,如果能帮助到其他人,自然是更好的. ...

  9. ZooKeeper学习之路 (九)利用ZooKeeper搭建Hadoop的HA集群

    Hadoop HA 原理概述 为什么会有 hadoop HA 机制呢? HA:High Available,高可用 在Hadoop 2.0之前,在HDFS 集群中NameNode 存在单点故障 (SP ...

  10. zookeeper 集群搭建 转

    通过 VMware ,我们安装了三台虚拟机,用来搭建 zookeeper 集群,虚拟机网络地址如下: hostname                      ipaddress           ...

随机推荐

  1. PHP会话机制---session的基本使用

    登录网站后,在每个网页都能拿到用户信息 (1) 使用超链接传递用户名,这样太繁琐了,不建议使用 . (2) 使用数据库,每打开一个页面都查询一次用户信息表,这样网页加载速度变慢,用户体验变差. (3) ...

  2. 细谈Mysql事务

    文章原创于公众号:程序猿周先森.本平台不定时更新,喜欢我的文章,欢迎关注我的微信公众号. 上一篇着重谈到了MySQL锁的概念,里面谈到了事务的概念,其实大部分开发者对于事务肯定不陌生,事务的概念其实就 ...

  3. Spring入门(五):Spring中bean的作用域

    1. Spring中bean的多种作用域 在默认情况下,Spring应用上下文中所有的bean都是以单例(singleton)的形式创建的,即不管给定的一个bean被注入到其他bean多少次,每次所注 ...

  4. Vulnhub靶场渗透练习(三) bulldog

    拿到靶场后先对ip进行扫描 获取ip  和端口 针对项目路径爆破 获取两个有用文件 http://192.168.18.144/dev/ dev,admin 更具dev 发现他们用到框架和语言 找到一 ...

  5. Python中文件路径名的操作

    1 文件路径名操作 对于文件路径名的操作在编程中是必不可少的,比如说,有时候要列举一个路径下的文件,那么首先就要获取一个路径,再就是路径名的一个拼接问题,通过字符串的拼接就可以得到一个路径名.Pyth ...

  6. 写了那么久的Python,你应该学会使用yield关键字了

    写过一段时间代码的同学,应该对这一句话深有体会:程序的时间利用率和空间利用率往往是矛盾的,可以用时间换空间,可以用空间换时间,但很难同时提高一个程序的时间利用率和空间利用率. 但如果你尝试使用生成器来 ...

  7. (二)Kinect关节识别

    基础:添加KinectManager 组件 1)局部关节获取(参考插件场景KinectOverlayDemo1) 要获取局部某一关节及其位置,添加脚本JointOverlayer即可,通过Tracke ...

  8. dig-基本使用

    dig:Domain Information Groper,是一个DNS查询工具 1:使用google的域名服务器:查询特定域名的A记录 [root@localhost ~]# dig @8.8.8. ...

  9. UIScrollView的contentView 助于理解

  10. 【Leetcode 做题学算法周刊】第二期

    首发于微信公众号<前端成长记>,写于 2019.11.05 背景 本文记录刷题过程中的整个思考过程,以供参考.主要内容涵盖: 题目分析设想 编写代码验证 查阅他人解法 思考总结 目录 20 ...