一,实验环境:

1, ubuntu server 16.04

2, jdk,1.8

3, hadoop 2.7.4 伪分布式环境或者集群模式

4, hbase-1.2.6.tar.gz

二,环境的搭建

1, 首先请大家安装好虚拟机运行环境。

2,安装jdk 以及hadoop的伪分布式或者集群环境。这里大家可以参考我的另外一篇文章hadoop的伪分布式安装

或者自行百度相应的步骤安装

3,开始安装hbase,

1) 打开终端,进入放有hbase-1.2.6.tar.gz的压缩包的文件夹,解压压缩包:

tar -zxvf  ./hbase-1.2.6.tar.gz

# 移动并重命名,解压后的文件到自己的安装目录,可以指定,也可以就用自己的当前目录,用当前目录路径直接写./hbase即可

sudo  mv -R /opt/hbase ./hbase-1.2.6  # 注意我这里是移动到根目录的 /opt文件夹下的hbase目录

2)修改文件夹的权限

# 注意这里第一个hbase是本机的主机名,第二个hbase是当前的用户名

sudo chown -R  hbase:hbase /opt/hbase

3)修改hbase-site.xml

vim /opt/hbase/conf/hbase/conf/hbase-site.xml

在configuration的键值对中添加如下内容,注意对应的192.168.23.133是我的ip地址,请大家写上自己的ip地址即可。

<configuration>
</configuration>

修改后的文件:

<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://192.168.23.133:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.master</name>
<value>192.168.23.133</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>192.168.23.133</value>
</property>
<property>
<name>hbase.tmp.dir</name>
<value>/opt/hbase/data/tmp</value>
</property>
</configuration>

4)修改hbase-en.sh文件, 添加自己的jdk路径,我的jdk安装在/usr/lib/jvm/java-8-openjdk-amd64, 请大家根据自己的安装目录设置

vim /opt/hbase/conf/hbase-en.sh

在文件头添加如下jdk,其中/usr/lib/jvm/java-8-openjdk-amd64是自己的jdk路径

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64

5)配置path,这步骤是为了方便操作命令,可以忽略该步骤。

vim ~/.bashrc

在文件头 添加如下数据

# HBase
export HBASE_HOME=/opt/hbase
export HBASE_CONF_DIR=$HBASE_HOME/conf
export HBASE_CLASS_PATH=$HBASE_CONF_DIR
export PATH=$PATH:$HBASE_HOME/bin

三,启动环境:

1) 首先启动hadoop

hadoop/sbin/start-all.ssh

2) 查看是否进程启动成功:出现如下几个进程则成功!

hbase@hbase:/opt/hbase/conf$ jps
9217 DataNode
9684 NodeManager
9558 ResourceManager
14471 Jps
9066 NameNode
9404 SecondaryNameNode

3)启动hbase

/opt/hbase/bin/start-hbase.sh

再次查看自己的进程,多了三个H开头的进程,说明成功一半了。

hbase@hbase:~$ jps
2753 HMaster
2100 NodeManager
2980 Jps
1765 SecondaryNameNode
1974 ResourceManager
1478 NameNode
2875 HRegionServer
2654 HQuorumPeer
1598 DataNode

4)测试是否成功:

/opt/hbase/bin/hbase shell

进入shell后输入:

create 'test','f1'

没有报错,说明环境搭建成功

再次输入 list 查看自己刚在创建的表。

四,安装过程中的注意事项:

1)尽量使用ip地址配置相应的地址,注意hadoop和hbase所配置的hdfs的地址一定要一致,避免出错!

2)如果使用ip地址,请确保/etc/hosts中有相应的配置  如下图:

其中ip地址可以通过ifconfig命令查看,hbase为主机名,和/ets/hostname文件中的主机名一致!

hbase伪分布式环境的搭建的更多相关文章

  1. HBase 伪分布式环境搭建及基础命令使用

    一.前提条件: (1)文件存储在HDFS文件系统之上.因此必须启动hadoop服务.(namenode,datanode,resourcemanager,nodemanager,historyserv ...

  2. HBase伪分布式环境下,HBase的API操作,遇到的问题

    在hadoop2.5.2伪分布式上,安装了hbase1.0.1.1的伪分布式 利用HBase的API创建个testapi的表时,提示  Exception in thread "main&q ...

  3. Hadoop伪分布式环境快速搭建

    Hadoop分支 Apache Cloudera Hortonworks 本文是采用Cloudera分支的hadoop. 下载cdh-5.3.6 版本 下载地址:http://archive.clou ...

  4. hbase伪分布式平台搭建(centos 6.3)

    搭建完<hadoop伪分布式平台>后就开始搭建hbase伪分布式平台了.有了hadoop环境,搭建hbase就变得很容易了. 一.Hbase安装 1.从官网下载最新版本Hbase安装包1. ...

  5. CentOS5.4 搭建Hadoop2.5.2伪分布式环境

    简介: Hadoop是处理大数据的主要工具,其核心部分是HDFS.MapReduce.为了学习的方便,我在虚拟机上搭建了一个伪分布式环境,来进行开发学习. 一.安装前准备: 1)linux服务器:Vm ...

  6. Ubuntu 14.04 (32位)上搭建Hadoop 2.5.1单机和伪分布式环境

    引言 一直用的Ubuntu 32位系统(准备下次用Fedora,Ubuntu越来越不适合学习了),今天准备学习一下Hadoop,结果下载Apache官网上发布的最新的封装好的2.5.1版,配置完了根本 ...

  7. linux环境下的伪分布式环境搭建

    本文的配置环境是VMware10+centos2.5. 在学习大数据过程中,首先是要搭建环境,通过实验,在这里简短粘贴书写关于自己搭建大数据伪分布式环境的经验. 如果感觉有问题,欢迎咨询评论. 一:伪 ...

  8. 《OD大数据实战》Hadoop伪分布式环境搭建

    一.安装并配置Linux 8. 使用当前root用户创建文件夹,并给/opt/下的所有文件夹及文件赋予775权限,修改用户组为当前用户 mkdir -p /opt/modules mkdir -p / ...

  9. Hadoop学习笔记1:伪分布式环境搭建

    在搭建Hadoop环境之前,请先阅读如下博文,把搭建Hadoop环境之前的准备工作做好,博文如下: 1.CentOS 6.7下安装JDK , 地址: http://blog.csdn.net/yule ...

随机推荐

  1. Zookeeper笔记分享

    Zookeeper采用zap协议来保证数据的一致性 常见的数据一致性协议采用raft协议   参数解读: tickTime=2000:心跳包发送间隔时长 initLimit=10:leader与fol ...

  2. docker基本入门知识-小白向

    基本概念 Docker是一个开源项目,前身是dotCloud公司的内部项目,但苦于无法扩大使用和推广,后期开源后吸引大量的开发人员的参与,以至于公司直接改名为Docker Inc. Docker项目的 ...

  3. netty启动流程

    本文通过对netty服务端.客户端的启动流程分析, 让大家对netty是如何启动运行的. 废话不多说,上源码!!! 建议读者学习netty下的jar类型为 netty-example,里面有很多exa ...

  4. 【对线面试官】Java NIO

    服务端: public class NoBlockServer { public static void main(String[] args) throws IOException { // 1.获 ...

  5. Spring Boot GraphQL 实战 03_分页、全局异常处理和异步加载

    hello,大家好,我是小黑,又和大家见面啦~ 今天我们来继续学习 Spring Boot GraphQL 实战,我们使用的框架是 https://github.com/graphql-java-ki ...

  6. 记一次Goroutine与wg导致的问题

    前言 今天发现了一个问题是之前一直没有注意到的,这里记一下 正文 Send Closed Chan 问题概述 代码逻辑是启动时启动多个 channel, channel1 获取数据监听数据处理后发送给 ...

  7. Spark内核解析

    Spark内核概述 Spark内核泛指Spark的核心运行机制,包括Spark核心组件的运行机制.Spark任务调度机制.Spark内存管理机制.Spark核心功能的运行原理等,熟练掌握Spark内核 ...

  8. js 中const 定义的值是否能更改

    const定义的基本类型不能改变,但是定义的对象是可以通过修改对象属性等方法来改变的. 1. const aa=trueaa=falseconsole.log(aa)VM1089:2 Uncaught ...

  9. 【SpringBoot1.x】SpringBoot1.x 缓存

    SpringBoot1.x 缓存 文章源码 JSR107 Java Caching 定义了 5 个核心接口,分别为: CachingProvider 定义了创建.配置.获取.管理和控制多个 Cache ...

  10. CopyOnWriteArrayList设计思路与源码分析

    CopyOnWriteArrayList实现了List接口,RandomAccess,Cloneable,Serializable接口. CopyOnWriteArrayList特性 1.线程安全,在 ...