一.事前准备

  1. 此安装是建立在hadoop集群运行起来的基础上,此hadoop版本为2.6.0,其他版本未测试,可能存在兼容性问题。
  2. 上传所需文件到/usr/local/soft

 

二.zookeeper安装

1.进入文件所在目录:cd /usr/local/soft/

2. 解压:tar -zxvf zookeeper-3.4.6.tar.gz

3. 重命名:mv zookeeper-3.4.6 zookeeper

4. 进入conf目录:cd zookeeper/conf/

5. 复制并重命名zoo_sample.cfg为zoo.cfg:cp zoo_sample.cfg zoo.cfg

6.返回上一级,并新建一个data文件夹:mkdir data

7.进入zoo.cfg文件并修改配置如下:vim conf/zoo.cfg

8. 返回软件安装目录soft,并将该配置目录同步到node1,node2

scp -r zookeeper root@node1:/usr/local/soft/

scp -r zookeeper root@node2:/usr/local/soft/

9.分别修改个三台主机的对应id:vim zookeeper/data/myid

10.启动zookeeper(三台都执行):bin/zkServer.sh start

11. 验证zookeeper(三台都执行):bin/zkServer.sh status

注意:node1为leader,master,node2为follower

以上zookeeper安装完成

三.Hbase安装

1.回到soft目录下,解压hbase:tar -zxvf hbase-0.98.12.1-hadoop2-bin.tar.gz

2.重命名hbase :mv hbase-0.98.12.1-hadoop2 hbase

3.配置profile文件并发送给其他节点:

vim /etc/profile.d/hbase.sh

# SET HBASE

export HBASE_HOME=/usr/local/soft/hbase

export PATH=$HBASE_HOME/bin:$PATH

发送节点:

scp -r /etc/profile.d/hbase.sh root@node1:/etc/profile.d/

scp -r /etc/profile.d/hbase.sh root@node2:/etc/profile.d/

4.使配置生效(三台都执行):source /etc/profile

5.修改hbase-env.sh配置文件:   vim hbase/conf/hbase-env.sh

export JAVA_HOME=/usr/local/soft/java

export HBASE_MANAGES_ZK=false

6.修改hbase-site.xml配置文件:vim hbase/conf/hbase-site.xml

<!--指定hbase的数据在hdfs上存放的位置-->

<property>

<name>hbase.rootdir</name>

<value>hdfs://master:9000/hbase</value>

</property>

<property>

<name>hbase.master</name>

<value>hdfs://master:6000</value>

</property>

<property>

<name>hbase.master.info.port</name>

<value>60010</value>

</property>

<!--指定hbase集群为分布式集群-->

<property>

<name>hbase.cluster.distributed</name>

<value>true</value>

</property>

<!--指定zookeeper集群-->

<property>

<name>hbase.zookeeper.quorum</name>

<value>master,node1,node2</value>

</property>

<property>

<name>hbase.zookeeper.property.dataDir</name>

<value>/usr/local/soft/zookeeper</value>

</property>

 

7. 设置备用:vim hbase/conf/backup-masters

8. 修改regionservers 配置文件:vim hbase/conf/regionservers

9.复制hadoop配置文件到hbase目录下:

cp hadoop/etc/hadoop/core-site.xml hbase/conf/

cp hadoop/etc/hadoop/hdfs-site.xml hbase/conf/

 

10.将hbase安装目录发送到其他节点:

scp -r hbase root@node1:/usr/local/soft/

scp -r hbase root@node2:/usr/local/soft/

11.启动hbase:start-hbase.sh

12.各节点jps截图:

13. 验证hbase

网页验证:

简单命令验证

HBase安装指南的更多相关文章

  1. 菜鸟玩云计算之十一:Hadoop 手动安装指南

    Hadoop 手动安装指南 cheungmine 2013-4 本文用于指导在Windows7,VMWare上安装Ubuntu, Java, Hadoop, HBase实验环境. 本指南用于实验的软件 ...

  2. Hadoop+HBase+Spark+Hive环境搭建

    杨赟快跑 简书作者 2018-09-24 10:24 打开App 摘要:大数据门槛较高,仅仅环境的搭建可能就要耗费我们大量的精力,本文总结了作者是如何搭建大数据环境的(单机版和集群版),希望能帮助学弟 ...

  3. Hive 1.2.1&Spark&Sqoop安装指南

    目录 目录 1 1. 前言 1 2. 约定 2 3. 服务端口 2 4. 安装MySQL 2 4.1. 安装MySQL 2 4.2. 创建Hive元数据库 4 5. 安装步骤 5 5.1. 下载Hiv ...

  4. HBase-1.2.1和Phoenix-4.7.0分布式安装指南

    目录 目录 1 1. 前言 2 2. 概念 2 2.1. Region name 2 3. 约定 2 4. 相关端口 3 5. 下载HBase 3 6. 安装步骤 3 6.1. 修改conf/regi ...

  5. HBase-0.98.0和Phoenix-4.0.0分布式安装指南

    目录 目录 1 1. 前言 1 2. 约定 2 3. 相关端口 2 4. 下载HBase 2 5. 安装步骤 2 5.1. 修改conf/regionservers 2 5.2. 修改conf/hba ...

  6. ZooKeeper-3.4.10分布式安装指南

    目录 目录 1 1. 前言 1 2. 约定 1 3. 安装步骤 2 3.1. 配置/etc/hosts 2 3.2. 设置myid 2 3.3. 修改conf/zoo.cfg 2 3.4. 修改/bi ...

  7. Mapreduce的文件和hbase共同输入

    Mapreduce的文件和hbase共同输入 package duogemap;   import java.io.IOException;   import org.apache.hadoop.co ...

  8. Redis/HBase/Tair比较

    KV系统对比表 对比维度 Redis Redis Cluster Medis Hbase Tair 访问模式    支持Value大小 理论上不超过1GB(建议不超过1MB) 理论上可配置(默认配置1 ...

  9. Hbase的伪分布式安装

    Hbase安装模式介绍 单机模式 1> Hbase不使用HDFS,仅使用本地文件系统 2> ZooKeeper与Hbase运行在同一个JVM中 分布式模式– 伪分布式模式1> 所有进 ...

随机推荐

  1. jmeter引用jar包的3种方式

    示例 实现对登录密码进行MD5加密 pom文件依赖 <!-- https://mvnrepository.com/artifact/commons-codec/commons-codec --& ...

  2. day4_变量和作用域

    全局变量与局部变量: 全局变量: 定义变量时,变量左边没有缩进,就是全局变量,可以被当前py文件的任何地方给引用 局部变量: 有缩进的变量就是局部变量 函数的作用域: def test1(): age ...

  3. 18-numpy笔记-莫烦pandas-6-plot显示

    代码 import pandas as pd import numpy as np import matplotlib.pyplot as plt data = pd.Series(np.random ...

  4. explain慢SQL分析解释

    使用EXPLAIN关键字可以模拟优化器执行SQL查询语句,从而知道MySQL是 如何处理你的SQL语句的.分析你的查询语句或是表结构的性能瓶颈. 使用方式:Explain+SQL语句 执行计划包含的信 ...

  5. python27期day02:while循环、break、格式化、运算符、编码初始、作业题。

    1.while循环:不断的重复着某件事就是循环 2.while循环图解: 3.break:终止当前循环. 4.continue就是跳出本次循环.继续下次循环. 下方代码都不会执行. 改变循环条件来终止 ...

  6. win10 配置 hadoop-2.7.2

    win10 配置 hadoop-2.7.2 1.下载 先在 http://acrchive.apache.org/dist/hadoop/common/hadoop-2.7.2/hadoop-2.7. ...

  7. [LeetCode] 623. Add One Row to Tree 二叉树中增加一行

    Given the root of a binary tree, then value v and depth d, you need to add a row of nodes with value ...

  8. Zuul整合Swagger,使用ZuulFilter解决下游服务context-path

    问题起因:使用Zuul网关服务,需要整合下游系统的swagger,但是下游服务存在context-path配置,无法正确跳转,最后使用ZuulFilter解决. 1.Zuul整合下游swagger 首 ...

  9. UDF——在udf当中添加几个有意思的宏

    很多人的udf都不是自己写的,直接从网上复制粘贴的,编译的时候经常报错.我编写了下面这段示例代码: 我们使用小软件编译: https://www.cnblogs.com/liusuanyatong/p ...

  10. 雪花算法(snowflake)的JAVA实现

    snowflake算法由twitter公司出品,原始版本是scala版,用于生成分布式ID,结构图: 算法描述: 最高位是符号位,始终为0,不可用. 41位的时间序列,精确到毫秒级,41位的长度可以使 ...