一、应该先配置好zookeeper并成功启动,否则hbase无法启动

二、配置HBASE集群

1,配置hbase-env.sh,下面是最少配置项目

[hadoop@zk1 conf]$ vim hbase-env.sh

export JAVA_HOME=/usr/java/jdk1.7.0_60
export HBASE_HOME=/home/hadoop/hbase export HBASE_OPTS="-XX:+UseConcMarkSweepGC" XX:GCLogFileSize=512M" XX:GCLogFileSize=512M" export HBASE_MANAGES_ZK=false

2,配置hbase-site.xml,其中标注为默认值的项目都可以忽略

[hadoop@zk1 conf]$ vim hbase-site.xml

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://hbasecluster/hbase</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>zk1,zk2,zk3</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property> <!-- above three parameters are the ones who must be defined within a true cluster environment --> <property>
<name>hbase.tmp.dir</name>
<value>file:/tmp/hbase</value>
</property> <property>
<name>hbase.master.port</name>
<value>60000</value><!-- 60000 is the default value -->
</property>
<property>
<name>hbase.master.info.port</name>
<value>60010</value><!--60010 is the default value-->
</property> <property>
<name>hbase.regionserver.port</name>
<value>60020</value><!-- 60020 is the default value -->
</property>
<property>
<name>hbase.regionserver.info.port</name>
<value>60030</value><!--60030 is the default value-->
</property> <property>
<name>zookeeper.session.timeout</name>
<value>2000</value>
<description>hbase daemon talk session with zookeeper timeout </description>
</property>
</configuration>

3,配置regionservers列表文件

[hadoop@zk1 conf]$ vim regionservers

dn1
dn2
dn3
dn4
dn5
dn6
~

配置完以上3项,通过scp 复制到其他运行hbase的r主机上,至此hbase已经可以启动,但是此时master只是启动一个,没有failover支持。

开启hbase master节点的failover特性很简单,继续第4项配置,其实只是要添加一个backup-masters的文件,写入master主机列表就行了。

4,配置master HA site backup文件

[hadoop@zk1 conf]$ vim backup-masters

zk1
zk2
zk3
~
"backup-masters" [新] 3L, 12C 已写入

再次scp分发配置,然后重新启动hbase集群,发现其他两个节点上HMaster页已经自动启动了。

[hadoop@zk1 conf]$ start-hbase.sh
starting master, logging to /home/hadoop/hbase/logs/hbase-hadoop-master-zk1.hadoop.software.yinghuan.com.out
dn3: regionserver running as process 1964. Stop it first.
dn6: regionserver running as process 1943. Stop it first.
dn5: regionserver running as process 1996. Stop it first.
dn4: regionserver running as process 1969. Stop it first.
dn2: regionserver running as process 1942. Stop it first.
dn1: starting regionserver, logging to /home/hadoop/hbase/logs/hbase-hadoop-regionserver-data1.hadoop.software.yinghuan.com.out
zk1: master running as process 3641. Stop it first.
zk2: starting master, logging to /home/hadoop/hbase/logs/hbase-hadoop-master-zk2.hadoop.software.yinghuan.com.out
zk3: starting master, logging to /home/hadoop/hbase/logs/hbase-hadoop-master-zk3.hadoop.software.yinghuan.com.out

其中zk1节点有重复了导致zk1上的master启动了两次,从bakup-masters文件中移除就ok了。

通过tarball形式安装HBASE Cluster(CDH5.0.2)——HBASE 真分布式集群配置的更多相关文章

  1. CentOS6安装各种大数据软件 第四章:Hadoop分布式集群配置

    相关文章链接 CentOS6安装各种大数据软件 第一章:各个软件版本介绍 CentOS6安装各种大数据软件 第二章:Linux各个软件启动命令 CentOS6安装各种大数据软件 第三章:Linux基础 ...

  2. WildFly 9.0.2+mod_cluster-1.3.1 集群配置

    一.配置背景 最近使用WildFly 9.0.2作为中间件开发系统,给客户不熟的时候需要使用集群来进行负载均衡,一开始想到是使用Nginx.但是只通过Nginx使用 ip_hash 模式没有做到ses ...

  3. hadoop-2.3.0-cdh5.1.0完全分布式集群配置HA配置

    一.安装前准备: 操作系统:CentOS 6.5 64位操作系统 环境:jdk1.7.0_45以上,本次采用jdk-7u55-linux-x64.tar.gz master01 10.10.2.57  ...

  4. hadoop-2.3.0-cdh5.1.0完全分布式集群配置及HA配置(待)

    一.安装前准备: 操作系统:CentOS 6.5 64位操作系统 环境:jdk1.7.0_45以上,本次采用jdk-7u55-linux-x64.tar.gz master01 10.10.2.57  ...

  5. Ambari安装之部署3个节点的HA分布式集群

    前期博客 Ambari安装之部署单节点集群 其实,按照这个步骤是一样的.只是按照好3个节点后,再做下HA即可. 部署3个节点的HA分布式集群 (1)添加机器 和添加服务的操作类似,如下图 之后的添加a ...

  6. Mac Hadoop2.6(CDH5.9.2)伪分布式集群安装

    操作系统: MAC OS X 一.准备 1. JDK 1.8 下载地址:http://www.oracle.com/technetwork/java/javase/downloads/jdk8-dow ...

  7. CentOS6安装各种大数据软件 第六章:HBase分布式集群的配置

    相关文章链接 CentOS6安装各种大数据软件 第一章:各个软件版本介绍 CentOS6安装各种大数据软件 第二章:Linux各个软件启动命令 CentOS6安装各种大数据软件 第三章:Linux基础 ...

  8. HBase 1.2.6 完全分布式集群安装部署详细过程

    Apache HBase 是一个高可靠性.高性能.面向列.可伸缩的分布式存储系统,是NoSQL数据库,基于Google Bigtable思想的开源实现,可在廉价的PC Server上搭建大规模结构化存 ...

  9. CentOS6安装各种大数据软件 第十章:Spark集群安装和部署

    相关文章链接 CentOS6安装各种大数据软件 第一章:各个软件版本介绍 CentOS6安装各种大数据软件 第二章:Linux各个软件启动命令 CentOS6安装各种大数据软件 第三章:Linux基础 ...

随机推荐

  1. [转]ExtJS3.0与KindEditor4.1.2整合

    原文地址:http://blog.csdn.net/resigshy/article/details/7937021 ExtJS与KindEditor整合的方式. /** * 将KindEditor4 ...

  2. 快速理解RequireJs(转)

    RequireJs已经流行很久了,我们在项目中也打算使用它.它提供了以下功能: 声明不同js文件之间的依赖 可以按需.并行.延时载入js库 可以让我们的代码以模块化的方式组织 初看起来并不复杂. 在h ...

  3. centos 6.4 x86_64 (minimal) 编译安装percona

    下载Percona-Server-5.5.24-26.0 wget https://www.percona.com/downloads/Percona-Server-5.5/Percona-Serve ...

  4. CACTI命令行添加DEVICE/GRAPH/TREE

    有时要加入大量的机器到 Cacti ,直接修改 Cacti  还是很复杂的.所以最好还是通过他本身提供的工具来实现. Cacti  早就为我们想到过这个问题了.这些工具就在   cacti/cli 目 ...

  5. Linux环境下NodeJS和MongoDB的安装配置

     一.NodeJS的安装配置 #进入安装目录cd /usr/local/ #删除原有安装rm -rf noderm -rf node-v0.10.29-linux-x64 #解压压缩包tar -zxv ...

  6. Azkaban上传出错

    Error initializing project id: 4 version: 2 打包文件上传时,自动生成的中文名导致的,这里的压缩包不能用中文名称.

  7. setfacl命令

    setfacl命令是用来在命令行里设置ACL(访问控制列表).在命令行里,一系列的命令跟随以一系列的文件名. 选项 -b,--remove-all:删除所有扩展的acl规则,基本的acl规则(所有者, ...

  8. 再谈git的http服务

    因为git服务器搬迁,需要重新安装git服务器,在网上搜索了下,发现之前的方法太复杂,复杂到自己都没彻底弄明白.其实通过git自带的git-http-backend脚本配合apache2的http服务 ...

  9. Android-FragmentPagerAdapter刷新无效的解决方案

    按照通常使用ListView的习惯做法,如果你只是更新保存Fragment的List数据,然后调用adapter的notifyDataSetChanged()是不会起作用的. 搜索了下发现此问题普遍存 ...

  10. 客户端Cookie读取操作

    function SetCookie(name,value) { //此 cookie 将被保存 30 天(可活动配置) var Days = 30; var exp = new Date(); ex ...