HBase HA 集群环境搭建
安装准备
确定已安装并启动 HDFS(HA)集群
角色分配如下:
node-01: namenode datanode regionserver hmaster zookeeper
node-02: datanode regionserver zookeeper
node-03: datanode regionserver zookeeper
安装步骤
- SFTP 工具上传并解压 hbase 安装包 hbase-1.4.13-bin.tar.gz
[root@node-01 ~]# tar -zxvf hbase-1.4.13-bin.tar.gz -C /root/apps
[root@node-01 ~]# rm -rf hbase-1.4.13-bin.tar.gz
- 设置 HBase 环境变量
[root@node-01 hbase-1.4.13]# vim /etc/profile
#行尾添加
export HBASE_HOME=/root/apps/hbase-1.4.13
export PATH=$PATH:$HBASE_HOME/bin
[root@node-01 hbase-1.4.13]# source /etc/profile
- 修改 hbase-env.sh 配置文件
[root@node-01 ~]# cd /root/apps/hbase-1.4.13/conf/
[root@node-01 conf]# vim hbase-env.sh
#删除 27 行注释,设置 JDK 路径
export JAVA_HOME=/root/apps/jdk1.8.0_141/
# 46 行和 47 行添加注释(仅在 JDK 7 需要,JDK 8 不需要直接注释掉)
#export HBASE_MASTER_OPTS="$HBASE_MASTER_OPTS -XX:PermSize=128m -XX:MaxPermSize =128m -XX:ReservedCodeCacheSize=256m"
#export HBASE_REGIONSERVER_OPTS="$HBASE_REGIONSERVER_OPTS -XX:PermSize=128m -XX :MaxPermSize=128m -XX:ReservedCodeCacheSize=256m"
#删除 105 行注释,设置 HBase 日志文件路径
export HBASE_LOG_DIR=${HBASE_HOME}/logs
#删除 120 行注释,设置pid进程文件存储路径
export HBASE_PID_DIR=${HBASE_HOME}/pids
#删除 128 行注释,设置HBase不启用内置的zookeeper(使用外部zookeeper)
export HBASE_MANAGES_ZK=false
- 修改 hbase-site.xml 配置文件
[root@node-01 conf]# vi hbase-site.xml
<configuration>
<!-- 指定hbase在HDFS上存储的路径 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://node-01:9000/hbase</value>
</property>
<!-- 指定hbase是分布式的 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 指定zookeeper的地址 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>node-01:2181,node-02:2181,node-03:2181</value>
</property>
<!-- 指定 Hbaes 临时路径-->
<property>
<name>hbase.tmp.dir</name>
<value>/root/apps/hbase-1.4.13/tmp</value>
</property>
</configuration>
- 修改 regionservers 配置文件
# 指定要启动 RegionServer 集群主机
[root@node-01 conf]# vim regionservers
node-01
node-02
node-03
- 配置备份的 Master
[root@node-01 conf]# >backup-masters
[root@node-01 conf]# vim backup-masters
node-02
- 建立 Hadoop 的 core-site.xml、hdfs-site.xml 两个配置文件的软连接
[root@node-01 conf]# ln -s /root/apps/hadoop-3.2.1/etc/hadoop/core-site.xml core-site.xml
[root@node-01 conf]# ln -s /root/apps/hadoop-3.2.1/etc/hadoop/hdfs-site.xml hdfs-site.xml
- 将环境配置文件和 hbase 文件夹分别拷贝到 node-02 和 node-03
[root@node-01 conf]# cd /etc/
[root@node-01 etc]# scp profile node-02:$PWD
[root@node-01 etc]# scp profile node-03:$PWD
[root@node-02 hbase-1.4.13]# source /etc/profile
[root@node-03 hbase-1.4.13]# source /etc/profile
[root@node-01 etc]# cd /root/apps/
[root@node-01 apps]# scp -r hbase-1.4.13/ node-02:$PWD
[root@node-01 apps]# scp -r hbase-1.4.13/ node-03:$PWD
启动 HBase 集群
- 启动 HBase 集群必须先启动 zk 集群 和 HDFS 集群
[root@node-01 hbase-1.4.13]# zkCluster.sh start
[root@node-01 hbase-1.4.13]# start-dfs.sh
[root@node-02 hbase-1.4.13]# hdfs --daemon start datanode
[root@node-03 hbase-1.4.13]# hdfs --daemon start datanode
[root@node-01 hbase-1.4.13]# hdfs --daemon start zkfc
[root@node-02 hbase-1.4.13]# hdfs --daemon start zkfc
- 启动 HBase 的 Master(active) 和 regionserver
[root@node-01 bin]# start-hbase.sh
[root@node-01 conf]# jps
5152 HMaster
2930 DataNode
2788 NameNode
1625 QuorumPeerMain
5545 Jps
3165 JournalNode
5341 HRegionServer
- 在浏览器中打开 HBase 的 Web UI 页面(端口:16010)
网址:192.168.229.21:16010(active)192.168.229.22:16010(backup)
HBase HA 集群环境搭建的更多相关文章
- Kafka:ZK+Kafka+Spark Streaming集群环境搭建(十)安装hadoop2.9.0搭建HA
如何搭建配置centos虚拟机请参考<Kafka:ZK+Kafka+Spark Streaming集群环境搭建(一)VMW安装四台CentOS,并实现本机与它们能交互,虚拟机内部实现可以上网.& ...
- HBase —— 集群环境搭建
一.集群规划 这里搭建一个3节点的HBase集群,其中三台主机上均为Regin Server.同时为了保证高可用,除了在hadoop001上部署主Master服务外,还在hadoop002上部署备用的 ...
- 大数据 -- Hadoop集群环境搭建
首先我们来认识一下HDFS, HDFS(Hadoop Distributed File System )Hadoop分布式文件系统.它其实是将一个大文件分成若干块保存在不同服务器的多个节点中.通过联网 ...
- hadoop集群环境搭建之安装配置hadoop集群
在安装hadoop集群之前,需要先进行zookeeper的安装,请参照hadoop集群环境搭建之zookeeper集群的安装部署 1 将hadoop安装包解压到 /itcast/ (如果没有这个目录 ...
- Ningx集群环境搭建
Ningx集群环境搭建 Nginx是什么? Nginx ("engine x") 是⼀个⾼性能的 HTTP 和 反向代理 服务器,也是⼀个 IMAP/ POP3/SMTP 代理服务 ...
- hadoop2集群环境搭建
在查询了很多资料以后,发现国内外没有一篇关于hadoop2集群环境搭建的详细步骤的文章. 所以,我想把我知道的分享给大家,方便大家交流. 以下是本文的大纲: 1. 在windows7 下面安装虚拟机2 ...
- Kafka:ZK+Kafka+Spark Streaming集群环境搭建(十三)kafka+spark streaming打包好的程序提交时提示虚拟内存不足(Container is running beyond virtual memory limits. Current usage: 119.5 MB of 1 GB physical memory used; 2.2 GB of 2.1 G)
异常问题:Container is running beyond virtual memory limits. Current usage: 119.5 MB of 1 GB physical mem ...
- Kafka:ZK+Kafka+Spark Streaming集群环境搭建(九)安装kafka_2.11-1.1.0
如何搭建配置centos虚拟机请参考<Kafka:ZK+Kafka+Spark Streaming集群环境搭建(一)VMW安装四台CentOS,并实现本机与它们能交互,虚拟机内部实现可以上网.& ...
- Kafka:ZK+Kafka+Spark Streaming集群环境搭建(八)安装zookeeper-3.4.12
如何搭建配置centos虚拟机请参考<Kafka:ZK+Kafka+Spark Streaming集群环境搭建(一)VMW安装四台CentOS,并实现本机与它们能交互,虚拟机内部实现可以上网.& ...
随机推荐
- (数据科学学习手札117)Python+Dash快速web应用开发——交互表格篇(下)
本文示例代码已上传至我的Github仓库https://github.com/CNFeffery/DataScienceStudyNotes 1 简介 这是我的系列教程Python+Dash快速web ...
- Warm_up(HCTF_2018)
Warm up 考察知识点: 文件包含漏洞 代码审计 解题步骤 首先我们进来看到了一个滑稽的表情,没啥别的东西,先看看源码 源码中发现有注释 source.php 我们访问source.php,得到代 ...
- JDBC_04_使用Properties集合保存JDBC所需配置信息
使用Properties集合保存JDBC所需配置信息 将JDBC连接所需的配置信息保存在一个配置文件中,然后使用Properties将该信息存储起来,动态的完成JDBC的配置连接 代码: import ...
- PostGIS管网连通性分析
GIS在管网数据中的很重要的一个应用方向就是"管网空间分析",其中包括连通性分析.上下游分析.爆管分析等等.下面是我使用postgis来实现该"管网连通性分析" ...
- Eureka原理剖析
Eureka作为微服务中的注册中心,为微服务集群间各个服务进行调用提供寻址的功能,有了它集群间的服务只需要指定服务名称就可以了,无需再去关心服务具体部署的服务器IP,即可正常调用.下面来对其中我们开发 ...
- Vue学习(二)-Vue中组件间传值常用的几种方式
版本说明:vue-cli:3.0 主要分为两类: 1.父子组件间的传值 2.非父子组件间的传值 1.父子组件间传值 父组件向子组件传值 第一种方式: props 父组件嵌套的子组件中,使用v-bind ...
- 洛谷P1424 小鱼的航程(改进版)
题目背景 原来的题目太简单,现改进让小鱼周末也休息,请已经做过重做该题. 题目描述 有一只小鱼,它上午游泳150公里,下午游泳100公里,晚上和周末都休息(实行双休日),假设从周x(1<=x&l ...
- Xposed框架Hook Android应用的所有类方法打印Log日志
本文博客地址:https://blog.csdn.net/QQ1084283172/article/details/80954759 在进行Android程序的逆向分析的时候,经常需要Android程 ...
- ZOJ3715 竞选班长求最小花费
题意: 有n个小朋友竞选班长,一号想当班长,每个人都必须选择一个人当班长,并且不可以选择自己,并且每个人都有一个权值ai,这个权值就是如果1想让这个人改变主意选择自己当班长就得给他ai个糖 ...
- Win64 驱动内核编程-27.强制读写受保护的内存
强制读写受保护的内存 某些时候我们需要读写别的进程的内存,某些时候别的进程已经对自己的内存读写做了保护,这里说四个思路(两个R3的,两个R0的). 方案1(R3):直接修改别人内存 最基本的也最简单的 ...