大数据hbase分布式安装及其部署。

首先要启动Hadoop以及zookeeper,可以参考前面发布的文章。

将hbase的包上传至master节点

这里我使用的是1.3.6的版本,具体的根据自己的版本来。

~~~[root@master ~]# ls
[root@master ~]# ls
hbase-1.3.6-bin.tar.gz


然后解压hbase的包到当前的目录。

[root@master ~]# tar -zxvf hbase-1.3.6-bin.tar.gz


查看解压后Hbase目录中的文件

[root@master ~]# cd hbase-1.3.6
[root@master hbase-1.3.6]# ll
total 420
drwxr-xr-x 4 503 games 4096 Oct 14 2019 bin
-rw-r–r-- 1 503 games 197073 Oct 15 2019 CHANGES.txt
drwxr-xr-x 2 503 games 4096 Apr 26 09:08 conf
drwxr-xr-x 12 503 games 4096 Oct 15 2019 docs
drwxr-xr-x 7 503 games 75 Oct 15 2019 hbase-webapps
-rw-r–r-- 1 503 games 262 Oct 5 2019 LEGAL
drwxr-xr-x 3 root root 8192 Apr 26 08:34 lib
-rw-r–r-- 1 503 games 143083 Oct 15 2019 LICENSE.txt
drwxr-xr-x 2 root root 4096 Apr 26 09:11 logs
-rw-r–r-- 1 503 games 47316 Oct 15 2019 NOTICE.txt
-rw-r–r-- 1 503 games 1477 Oct 11 2019 README.txt


#### 配置Hbase 进入到conf配置目录中,需要修改三个文件,具体如下: 1.配置hbase-env.sh文件

[root@master hbase-1.3.6]# cd conf/
[root@master conf]# ls
hadoop-metrics2-hbase.properties hbase-policy.xml log4j.properties
hbase-env.cmd hbase-site.xml regionservers
hbase-env.sh log4j-hbtop.properties
[root@master conf]# vi hbase-env.sh

然后找到配置Java变量这一行,去除前面的#号,并将内容修改如下

export JAVA_HOME=/opt/bigdata/jdk1.8.0_161(这是我的Java环境变量,具体的根据自己真实的路径填写)

然后在这条命令下添加以下内容

export HBASE_MANAGES_ZK=false (意思是不使用自带zookeeper管理HBase集群)

最后保存退出


2.配置hbase-site.xml文件,将以下内容代替之前的内容。
<configuration>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>master,node1,node2</value> (这个是自己的节点名称)
</property>
<property>
<name>hbase.master.info.port</name>
<value>60010</value>
</property>
</configuration>

3.配置regionservers文件

[root@master conf]# vi regionservers
node1
node2

**** 注意添加的是你自己的节点名称。


配置Hbase的环境变量并且验证Hbase集群

[root@master ~]# vi .bash_profile

添加以下内容
#HBase
export HBASE_HOME=/root/hbase-1.3.6
export PATH=HBASEHOME/bin:HBASE_HOME/bin:HBASEH​OME/bin:PATH
export HADOOP_CLASSPATH=$HBASE_HOME/lib/*
然后执行以下命令使环境变量生效。

[root@master ~]# source .bash_profile


将配置好的HBase文件夹复制到从节点

[root@master ~]# scp -r hbase-1.3.6 node1:~/

[root@master ~]# scp -r hbase-1.3.6 node2:~/


在master节点启动Hbase集群

[root@master ~]# start-hbase.sh

然后查看各个节点的jps

[root@master ~]# jps
4788 HMaster
5240 Jps
3835 NameNode
4588 QuorumPeerMain
4255 ResourceManager

[root@node1 ~]# jps
2866 DataNode
2981 SecondaryNameNode
3061 NodeManager
3207 QuorumPeerMain
3293 HRegionServer
3581 Jps

[root@node2 ~]# jps
2739 DataNode
3076 HRegionServer
2854 NodeManager
3000 QuorumPeerMain
3372 Jps

注意!!! 检查mater节点是否出现HMaster,另外两个节点是否出现HRegionServer。


利用hbase shell进入HBase命令行。

[root@master ~]# hbase shell
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/root/hbase-1.3.6/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/opt/bigdata/hadoop-3.0.0/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
HBase Shell; enter ‘help’ for list of supported commands.
Type “exit” to leave the HBase Shell
Version 1.3.6, r806dc3625c96fe2cfc03048f3c54a0b38bc9e984, Tue Oct 15 01:55:41 PDT 2019

hbase(main):001:0>


至此hbase搭建就全部完毕了,欢迎大家留言讨论!!!!

大数据hbase分布式安装及其部署。的更多相关文章

  1. 第四章:大数据 の HBase 基础

    本课主题 NoSQL 数据库介绍 HBase 基本操作 HBase 集群架构与设计介紹 HBase 与HDFS的关系 HBase 数据拆分和紧缩 引言 介绍什么是 NoSQL,NoSQL 和 RDBM ...

  2. CentOS6安装各种大数据软件 第九章:Hue大数据可视化工具安装和配置

    相关文章链接 CentOS6安装各种大数据软件 第一章:各个软件版本介绍 CentOS6安装各种大数据软件 第二章:Linux各个软件启动命令 CentOS6安装各种大数据软件 第三章:Linux基础 ...

  3. 第五章:大数据 の HBase 进阶

    本课主题 HBase 读写数据的流程 HBase 性能优化和最住实践 HBase 管理和集群操作 HBase 备份和复制 引言 前一篇 HBase 基础 (HBase 基础) 简单介绍了NoSQL是什 ...

  4. 大数据【八】Flume部署

    如果说大数据中分布式收集日志用的是什么,你完全可以回答Flume!(面试小心问到哦) 首先说一个复制本服务器文件到目标服务器上,需要目标服务器的ip和密码: 命令: scp  filename   i ...

  5. CDH构建大数据平台-Kerberos高可用部署【完结篇】

    CDH构建大数据平台-Kerberos高可用部署[完结篇] 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任.  一.安装Kerberos相关的软件包并同步配置文件 1>.实验环境 ...

  6. 大数据之pig安装

    大数据之pig安装 1.下载 pig download 2. 解压安装 mapreduce模式安装: 1:设置HADOOP_HOME,如果pig所在节点不是集群中的节点,那就需要把集群中使用的hado ...

  7. 大白话详解大数据HBase核心知识点,老刘真的很用心(2)

    前言:老刘目前为明年校招而努力,写文章主要是想用大白话把自己复习的大数据知识点详细解释出来,拒绝资料上的生搬硬套,做到有自己的理解! 01 HBase知识点 第6点:HRegionServer架构 为 ...

  8. 大白话详解大数据HBase核心知识点,老刘真的很用心(3)

    老刘目前为明年校招而努力,写文章主要是想用大白话把自己复习的大数据知识点详细解释出来,拒绝资料上的生搬硬套,做到有自己的理解! 01 HBase知识点(3) 第13点:HBase表的热点问题 什么是热 ...

  9. 新闻网大数据实时分析可视化系统项目——6、HBase分布式集群部署与设计

    HBase是一个高可靠.高性能.面向列.可伸缩的分布式存储系统,利用Hbase技术可在廉价PC Server上搭建 大规模结构化存储集群. HBase 是Google Bigtable 的开源实现,与 ...

随机推荐

  1. 2.用eclipse创建maven Web

    一.其他步骤与上一个博客相同,故不赘述,这里要记得选war→Finish 二.在项目上右键选Properties 三.搜索到Project Facets,把勾取消掉,点Apply 四.重新勾选后出现以 ...

  2. SpringMVC里 form提交到controller404 解决方法

    把 <form action="/logon"> 改为 <form action="${pageContext.request.contextPath} ...

  3. JavaScript数组的基本操作

    数组的创建方式: 方式一:构造函数构建数组 var arr = new Array ( ); 如果传入的参数为一个数字,代表数组的长度,不包含内容 // 可以传入字符串和数字,用逗号隔开,作为数组中的 ...

  4. 通过pycharm使用git和github的步骤(图文详解)

    一.在Pycharm工具中配置集成Git和GitHub.1.集成Git. 打开Pycharm,  点击File-->Settins-->Version Control-->Git 然 ...

  5. jenkins 脱机下 安装插件失败

    1.首次进入,提示离线 2.网上给出了绝大部分答案是进入Manage Plugins 中在高级下将升级站点的https换成http,但是都没解决我的问题  还是报错,用了大部分时间查阅 最终才发现问题 ...

  6. jenkins登录信息无效,忘记密码

    1.使用admin账号登陆jenkins,提示登录信息无效,请重试 原因:启动了多个jenkins服务或者所开的Jenkins服务不对 2.jenkins账号密码忘记 修改C:\Users\ASUS- ...

  7. Spring Web Flow 笔记

    在Spring 中配置 Web Flow <?xml version="1.0" encoding="UTF-8"?> <beans xmln ...

  8. C++编译/编辑器对OIer的必要功能

    (没有引战的意思,如果有不同意见可以评论区发言,只是写出我目前的情况) 作为一个C++ OIer肯定是用过Dev的,因为学校推荐啊我也没有办法.都知道Dev又丑又没有代码补全,但是却是最最最适合OIe ...

  9. 一天学一个Linux命令:第二天 cd pwd

    文章更新于:2020-03-08 注:本文参照 man pwd 手册,并给出使用样例. 文章目录 一.命令之 `cd` 和 `pwd` 1.命令介绍 2.语法格式 3.使用样例 4.pwd 参数 5. ...

  10. python redis 实现简单的消息订阅

    python + redis 实现简单的消息订阅 订阅端 import redis from functools import wraps class Subscribe: def __init__( ...