1.注意hadoop和hbase的版本兼容问题

  目前测试用:hadoop 2.6.5  Hbase 1.1.2

2.创建hadoop用户

  Sudo useradd –m hadoop –s /bin/bash

  创建了可以登陆的 hadoop 用户,并使用 /bin/bash 作为 shel.

  Sudo passwd hadoop

  Sudo adduser hadoop sudo

3.更新apt

  Sudo apt-get update

  Sudo apt-get install vim

4.安装ssh,设置无密码登陆

  Sudo apt-get install openssh-server

  Ssh localhost

  Exit

  Cd  ~/.ssh/

  Ssh-keygen –t rsa

  Cat ./id_rsa.pub >> ./authorized_keys

  再使用ssh localhost就不需要密码

5.安装java环境

  Sudo apt-get install default-jre default-jdk

  vim ~/.bashrc

  在文件前面添加export JAVA_HOME=/usr/lib/jvm/default-java

  Source ~./bashrc

  echo $JAVA_HOME

  java -version

  $JAVA_HOME/bin/java -version

6.安装hadoop

  Sudo tar –zxf ~/下载/hadoop-2.6.5.tar.gz –C /usr/local

  Cd /usr/local

  Sudo mv ./hadoop-2.6.5/ ./hadoop

  Sudo chown –R hadoop ./hadoop

  Cd /usr/local/hadoop

  ./bin/hadoop version

7.Hadoop单机检测

  Cd /usr/local/hadoop

  Mkdir ./input

  Cp ./etc/hadoop/*.xml ./input

  ./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar grep ./input ./output 'dfs[a-z.]+'

  cat ./output/*

8.Hadoop伪分布式配置

  Vim ./etc/hadoop/core-site.xml

  

    <configuration>

     <property>

          <name>hadoop.tmp.dir</name>

       <value>file:/usr/local/hadoop/tmp</value>

         <description>Abase for other temporary directories.</description>

     </property>

     <property>

        <name>fs.defaultFS</name>

          <value>hdfs://localhost:9000</value>

       </property>

    </configuration>

  

  Vim ./etc/hadoop/hdfs-site.xml

    <configuration>

     <property>

        <name>dfs.replication</name>

        <value>1</value>

        </property>

     <property>

        <name>dfs.namenode.name.dir</name>

      <value>file:/usr/local/hadoop/tmp/dfs/name</value>

     </property>

     <property>

      <name>dfs.datanode.data.dir</name>

    <value>file:/usr/local/hadoop/tmp/dfs/data</value>

     </property>

    </configuration>

配置完成后,执行namenode的格式化

./bin/hdfs namenode –format

  如果此处失败,出现JAVA_HOME is not set and could not be found.    那么需要检查.bashrc文件中是否设置了JAVA_HOME。如果设置,就需要在/usr/local/hadoop/etc/hadoop/hadoop-env.sh,在里面找           到“export JAVA_HOME=${JAVA_HOME}”这行,然后,把它修改成JAVA安装路径的具体地址,比如,“export JAVA_HOME=/usr/lib/jvm/default-java”,然后,再次启动Hadoop。

  开启:./sbin/start-dfs.sh

输入:jps 来验证是否成功开启

9.创建hdfs用户目录

  Cd /usr/local/hadoop

  ./bin/hadoop fs –mkdir –p /user/hadoop

  ./bin/hadoop fs –ls. (这个.是hdfs用户当前目录,等价于./bin/hadoop fs –ls /user/hadoop)

  ./bin/hdfs dfs –mkdir input

  (在创建个input目录时,采用了相对路径形式,实际上,这个input目录创建成功以后,它在HDFS中的完整路径是“/user/hadoop/input”。

  ./bin/hdfs dfs –mkdir /input

  是在HDFS的根目录下创建一个名称为input的目录

10.Hdfs文件操作

  本地文件系统上传到hdfs

  .

    /bin/hdfs dfs -put /home/hadoop/myLocalFile.txt  input

     ./bin/hdfs dfs –ls input 查看是否成功上传

    ./bin/hdfs dfs –cat input/myLocalFile.txt

  Hdfs下载到本地文件系统

    

    ./bin/hdfs dfs -get input/myLocalFile.txt  /home/hadoop/下载

    Hdfs的一个目录拷贝到hdfs的另一个目录

    ./bin/hdfs dfs -cp input/myLocalFile.txt  /input

11.Hbase安装

    sudo tar -zxf ~/下载/hbase-1.1.2-bin.tar.gz -C /usr/local

    sudo mv /usr/local/hbase-1.1.2 /usr/local/hbase

    vim ~/.bashrc

      export PATH=$PATH:/usr/local/hbase/bin

    source ~/.bashrc

    cd /usr/local

    sudo chown -R hadoop ./hbase

    /usr/local/hbase/bin/hbase version

12.Hbase伪分布式配置

  Vim /usr/local/hbase/conf/hbase-env.sh

    添加:export JAVA_HOME=/usr/lib/jvm/default-java

    export HBASE_CLASSPATH=/usr/local/hadoop/conf

    export HBASE_MANAGES_ZK=true

vim /usr/local/hbase/conf/hbase-site.xml

  

    设置:<configuration>

     <property>

       <name>hbase.rootdir</name>

       <value>hdfs://localhost:9000/hbase</value>

     </property>

     <property>

          <name>hbase.cluster.distributed</name>

          <value>true</value>

       </property>

      </configuration>

ssh localhost

  cd /usr/local/hadoop

  ./sbin/start-dfs.sh

  Jps

cd /usr/local/hbase

  bin/start-hbase.sh

  jps

  bin/hbase shell

  exit

  bin/stop-hbase.sh

  1. 关闭hadoop:./sbin/stop-dfs.sh
  1. 访问hbase web管理页面 http://172.19.32.118:16010/

    访问hdfs web管理页面http://172.19.32.118:50070/

  1. 解决namenode –format后,namenode正常启动但是datanode无法启动的问题。

找到namenode文件中的VERSION文件,复制文件中的clusterid 到datanode文件中的version文件的对应位置。

  1. Hdfs找hbase存储的数据和.snapshot文件。

./hadoop fs –ls /

./hadoop fs –ls /hbase

  1. Hbase数据迁移到本地

./bin/hbase org.apache.hadoop.hbase.snapshot.ExportSnapshot -snapshot tttt5 -copy-to file:///home/aa

伪分布式hbase2.6.5和hbase1.1.2的配置的更多相关文章

  1. HBase伪分布式环境下,HBase的API操作,遇到的问题

    在hadoop2.5.2伪分布式上,安装了hbase1.0.1.1的伪分布式 利用HBase的API创建个testapi的表时,提示  Exception in thread "main&q ...

  2. Hadoop的伪分布式搭建

    我们在搭建伪分布式Hadoop环境,需要将一系列的配置文件配置好. 一.配置文件 1. 配置文件hadoop-env.sh export JAVA_HOME=/opt/modules/jdk1.7.0 ...

  3. Hadoop伪分布式模式部署

    Hadoop的安装有三种执行模式: 单机模式(Local (Standalone) Mode):Hadoop的默认模式,0配置.Hadoop执行在一个Java进程中.使用本地文件系统.不使用HDFS, ...

  4. Ubuntu 14.10 下安装伪分布式hbase 0.99.0

    HBase 安装分为:单击模式,伪分布式,完全分布式,在单机模式中,HBase使用本地文件系统而不是HDFS ,所有的服务和zooKeeper都运作在一个JVM中.本文是安装的伪分布式. 安装步骤如下 ...

  5. Windows10+VMware Workstation Pro+Ubuntu 16.04+Hadoop-2.6.5+IDEA环境搭建(单机&伪分布式&集群)

    (注:下面出现的"czifan"为用户名,需替换成自己的用户名) 本篇博客是在实践该篇博客的过程中的一些补充和修改~ 0 - 安装VMware Workstation Pro 首先 ...

  6. CentOS7 hadoop3.3.1安装(单机分布式、伪分布式、分布式)

    @ 目录 前言 预先设置 修改主机名 关闭防火墙 创建hadoop用户 SSH安装免密登陆 单机免密登陆--linux配置ssh免密登录 linux环境配置Java变量 配置Java环境变量 安装Ha ...

  7. Hbase1.0伪分布式集群启动失败问题

    作者:Syn良子 出处:http://www.cnblogs.com/cssdongl/p/7340681.html 转载请注明出处 最近抽空折腾自己的虚拟机环境时启动伪分布式Hbase集群一直失败, ...

  8. 进阶3: zookeeper-3.4.9.tar.gz和hbase-1.2.4-bin.tar.gz 环境搭建(hbase 伪分布式)

    前提条件: 成功安装了  jdk1.8,  hadoop2.7.3 注意条件: zookeeper,hbase 版本必须要和hadoop 安装版本相互兼容,否则容易出问题: 本次:安装包 zookee ...

  9. Hbase的伪分布式安装

    Hbase安装模式介绍 单机模式 1> Hbase不使用HDFS,仅使用本地文件系统 2> ZooKeeper与Hbase运行在同一个JVM中 分布式模式– 伪分布式模式1> 所有进 ...

随机推荐

  1. 使用mysql自带工具mysqldump进行全库备份以及source命令恢复数据库

    mysql数据库提供了一个很好用的工具mysqldump用以备份数据库,下面将使用mysqldump命令进行备份所有数据库以及指定数据库 一.mysqldump一次性备份所有数据库数据 /usr/lo ...

  2. ASP.NET Core之NLog使用

    1.新建ASP.NET Core项目 1.1选择项目 1.2选择.Net版本 2. 添加NLog插件 2.1 通过Nuget安装 2.2下载相关的插件 3.修改NLog配置文件 3.1添加NLog配置 ...

  3. telnet mysql时出现:is not allowed to connect to this MySQL serverConnection closed by foreign host问题的解决

    有时候telnet一个mysql服务器的时候会出现: Host '192.168.0.1' is not allowed to connect to this MySQL serverConnecti ...

  4. O(big oh) (big omega) (big theta)

    big oh big omega big theta more

  5. Oracle12c 从入门到精通(第二版) 闫红岩 金松河 编著

    声明:本文只是用于学习笔记使用.方便查询.若需要书本,请到书店购买. 本书封面 前言 第1章 Oracle数据库概述 1.1 Oracle数据库产品结构及组成 1.1.1 标准版 1.1.2 标准版 ...

  6. Confluence 6 home 修改 Home 目录的位置

    当 Confluence 第一次启动的时候,Confluence 将会读取 confluence-init.properties 文件并从这个文件中确定如何去查找 Home 目录. 希望修改 home ...

  7. 好用的JS拖拽插件

    下载artDialog插件的时候发现它把拖拽单独封装成了一个方法,挺好用的,使用方法如下... 第一种拖拽方式-点击容器指定区域进行拖拽 $('.ui-dialog').on(DragEvent.ty ...

  8. 对于stark(curd)插件的使用简单介绍

    一.创建表 from django.db import models from django.db import models class Department(models.Model): &quo ...

  9. 《剑指offer》 大数递增

    本题来自<剑指offer> 大数的存储 题目: 针对以下问题:大数的存储.大数的相加.大数的运算. 思路: 当数据较大时候,long long数据已经存储不了,借助数组的方式进行存储. 假 ...

  10. Allegro PCB Design GXL (legacy) 使用slide推挤走线,走线的宽度就发生改变的原因

    Allegro PCB Design GXL (legacy) version 16.6-2015 使用slide推挤走线,走线的宽度就会发生改变. 后来发现是因为约束管理器(Constraint M ...