Hadoop 1.1.2 和Hbase 0.94.11版本配置

测试时ip  172.19.32.128

这个版本需要把/etc/hosts的aa-vm改成127.0.0.1,也就是和localhost一致。否则hbase会出现master在初始化(出现此问题还可能是时间不同步)

1.更新apt

  Sudo apt-get update

  Sudo apt-get install vim

2.安装ssh,设置无密码登陆

  Sudo apt-get install openssh-server

  Ssh localhost

  Exit

  Cd  ~/.ssh/

  Ssh-keygen –t rsa

  Cat ./id_rsa.pub >> ./authorized_keys

  再使用ssh localhost就不需要密码

3.安装java环境

  Sudo apt-get install default-jre default-jdk

  vim ~/.bashrc

    在文件前面添加export JAVA_HOME=/usr/lib/jvm/default-java

  Source ~./bashrc

  echo $JAVA_HOME

  java -version

  $JAVA_HOME/bin/java -version

4.安装hadoop

  Sudo tar –zxf ~/下载/hadoop-1.1.2.tar.gz –C /usr/local

  Cd /usr/local

  Sudo mv ./hadoop-1.1.2/ ./hadoop

  Sudo chown –R hadoop ./hadoop

  Cd /usr/local/hadoop

  ./bin/hadoop version

5.伪分布式配置

  Cd /usr/local/hadoop/conf

  Vim hadoop-env.sh

      添加:export JAVA_HOME=/usr/lib/jvm/default-java

      export PATH=$PATH:/usr/local/hadoop/bin

source hadoop-env.sh

hadoop version

vim core-site.xml

<configuration>

        <property>

          <name>fs.default.name</name>

            <value>hdfs://localhost:9000</value>

        </property>

         <property>

          <name>hadoop.tmp.dir</name>

           <value>/usr/local/hadoop/tmp</value>

          </property>

      </configuration>

Vim hdfs-site.xml

<configuration>

        <property>

          <name>dfs.replication</name>

          <value>1</value>

        </property>

        <property>

          <name>dfs.name.dir</name>

          <value>/usr/local/hadoop/hdfs/name</value>

        </property>

        <property>

          <name>dfs.data.dir</name>

          <value>/usr/local/hadoop/hdfs/data</value>

        </property>

      </configuration>

./bin/hadoop namenode –format

./bin/start-dfs.sh

Jps

6. 创建hdfs用户目录

  Cd /usr/local/hadoop

  ./bin/hadoop fs –mkdir –p /user/hadoop

  ./bin/hadoop fs –ls. (这个.是hdfs用户当前目录,等价于./bin/hadoop fs –ls /user/hadoop)

  ./bin/hdfs dfs –mkdir input

    (在创建个input目录时,采用了相对路径形式,实际上,这个input目录创建成功以后,它在HDFS中的完整路径是“/user/hadoop/input”。

  ./bin/hdfs dfs –mkdir /input

    是在HDFS的根目录下创建一个名称为input的目录

7.   Hdfs文件操作

  本地文件系统上传到hdfs

    ./bin/hdfs dfs -put /home/hadoop/myLocalFile.txt  input

    ./bin/hdfs dfs –ls input 查看是否成功上传

    ./bin/hdfs dfs –cat input/myLocalFile.txt

  Hdfs下载到本地文件系统

    ./bin/hdfs dfs -get input/myLocalFile.txt  /home/hadoop/下载

  Hdfs的一个目录拷贝到hdfs的另一个目录

    ./bin/hdfs dfs -cp input/myLocalFile.txt  /input

8.  Hbase安装

    sudo tar -zxf ~/下载/hbase-0.94.11-security.tar.gz -C /usr/local

    sudo mv /usr/local/hbase-1.1.2-security /usr/local/hbase

    vim ~/.bashrc

      export PATH=$PATH:/usr/local/hbase/bin

    source ~/.bashrc

    cd /usr/local

    sudo chown -R hadoop ./hbase

    /usr/local/hbase/bin/hbase version

12.   Hbase伪分布式配置

    Vim /usr/local/hbase/conf/hbase-env.sh

      添加:export JAVA_HOME=/usr/lib/jvm/default-java

      export HBASE_MANAGES_ZK=true

    vim /usr/local/hbase/conf/hbase-site.xml

  设置:

        <configuration>

       <property>

         <name>hbase.rootdir</name>

        <value>hdfs://localhost:9000/hbase</value>

        </property>

       <property>

         <name>hbase.cluster.distributed</name>

         <value>true</value>

          </property>

     <property>

              <name>hbase.zookeeper.quorum</name>

               <value>127.0.0.1</value>

            </property>

            <property>

               <name>dfs.replication</name>

               <value>1</value>

            </property>

          </configuration>

ssh localhost

   cd /usr/local/hadoop

  ./bin/start-dfs.sh

  Jps

cd /usr/local/hbase

  bin/start-hbase.sh

  jps

  bin/hbase shell

  exit

  bin/stop-hbase.sh

13.   关闭hadoop:./sbin/stop-dfs.sh

14.   访问hbaseweb管理页面 http://172.19.32.128:60010/

  访问hdfs web管理页面http://172.19.32.128:50070/

15.  解决Hbase Table already exists问题。

  通过./hbase zkcli命令进入zookeeper client模式

  输入ls /hbase/table命令看到zombie table

  使用rmr /hbase/table/TABLE_NAME命令删除zombie table

  重启Hbase

伪分布式hadoop1.1.2和hbase0.94.11配置的更多相关文章

  1. 谁说他们版本不兼容——hadoop1.2.1+hbase0.94.11+nutch2.2.1+el

    一.背景 最近由于项目和论文的需要,需要搭建一个垂直搜索的环境,查阅了很多资料,决定使用Apache的一套解决方案hadoop+hbase+nutch+es.这几样神器的作用就不多作介绍了,自行参考各 ...

  2. hadoop1.2.1+hbase0.94.11+nutch2.2.1+elasticsearch0.90.5安装配置攻略

    一.背景 最近由于项目和论文的需要,需要搭建一个垂直搜索的环境,查阅了很多资料,决定使用Apache的一套解决方案hadoop+hbase+nutch+es.这几样神器的作用就不多作介绍了,自行参考各 ...

  3. 使用ycsb对hbase0.94.11 benchmark

    Ycsb下载地址:https://github.com/brianfrankcooper/YCSB/releases 目前测试hbase0.94.11,因此下载ycsb-0.1.4.tar.gz 1. ...

  4. Hadoop-1.1.2、HBase-0.94.7完全分布式集群结构

    爱的技术可以应用到实际生活生产,做艺术向往的东西不腻和音乐. 现将前期手里面的一个项目做一个大致的总结,与大家一起分享.交流.进步. 项目如今正在线上执行,项目名--基于Hadoop的数据分析综合管理 ...

  5. 第三章:Hadoop简介及配置Hadoop-1.2.1,hbase-0.94.13集群

    前面给大家讲了怎么安装Hadoop,肯定会有人还是很迷茫,装完以后原来就是这个样子,但是怎么用,下面,先给大家讲下Hadoop简介:大致理解下就OK了 hadoop是一个平台,提供了庞大的存储和并行计 ...

  6. [转]CentOS下安装伪分布式Hadoop-1.2.1

    From: http://blog.csdn.net/yinan9/article/details/16805275 环境:CentOS 5.10(虚拟机下) [root@localhost hado ...

  7. hbase0.94.11版本和hbase1.4.9版本的benchamark区别

    1.起初使用ycsb对hbase进行benchmark,分别在100%写的情况下检测写性能:在100%读的情况下检测读的性能.实验数据如下: 2.新版本的habse写性能竟然不如老版本.!!!.于是我 ...

  8. Hadoop1 Centos伪分布式部署

    前言:       毕业两年了,之前的工作一直没有接触过大数据的东西,对hadoop等比较陌生,所以最近开始学习了.对于我这样第一次学的人,过程还是充满了很多疑惑和不解的,不过我采取的策略是还是先让环 ...

  9. 伪分布式hbase从0.94.11版本升级stable的1.4.9版本

    Hbase从0.94.11升级到stable的1.4.9版本: 升级思路: hadoop1.1.2    hbase 0.94.11                             ↓ had ...

随机推荐

  1. char、nchar、varchar、nvarchar 的区别

    char.varchar.nchar.nvarchar为数据库中常用的字符类型,使用上要综合考虑空间利用率与存取速度.它们的区别如下: 实例解析: 定义char[9].varchar[9].nchar ...

  2. SQL Server代码段

    1.cast和convert ' as int) -- 123 ') -- 123 select CAST(123.4 as int) -- 123 select CONVERT(int, 123.4 ...

  3. Spring initializr使用

    Spring initializr 是Spring 官方提供的一个很好的工具,用来初始化一个Spring boot 的项目. 有两种方式可以使用Spring initializr来创建一个项目: ht ...

  4. spring jdbctemplate调用存储过程,返回list对象

    注:本文来源于<  spring jdbctemplate调用存储过程,返回list对象 > spring jdbctemplate调用存储过程,返回list对象 方法: /** * 调用 ...

  5. Java编写一个随机产生小学生四则运算题30道

    //注:这个程序还没有实现的地方为分数的计算方法未能实现,只是简单的两个数运算,没有实现多个数,四则运算中的数没有涉及0. package 课堂测试1; import java.io.File; im ...

  6. 将眼底图片生成的txt文件进行格式化处理

    # -*- coding: utf-8 -*- """ 将图片转换生成的txt文件进行格式化处理 """ import os import ...

  7. Python自定义-分页器

    Python自定义-分页器 分页功能在每个网站都是必要的,对于分页来说,其实就是根据用户的输入计算出应该在数据库表中的起始位置. 1.设定每页显示数据条数 2.用户输入页码(第一页.第二页...) 3 ...

  8. ubuntu下使用matplotlib绘图无法显示中文label

    原因是字体导致的.大家的做法基本都是搞一个windows上的字体文件(simhei.ttf, 点我fq下载)然后刷新一下缓存文件. 只不过百度搜到第一篇CSDN的博客,写的很不靠谱(不是所有的CSDN ...

  9. 【第一部分】01Leetcode刷题

    一.二叉树的中序遍历 题目:94. 二叉树的中序遍历.94. Binary Tree Inorder Traversal 解法一: class Solution { public: vector< ...

  10. MyBatis - 3.Mapper XML映射文件

    SQL 映射文件有很少的几个顶级元素(按照它们应该被定义的顺序): cache – 给定命名空间的缓存配置. cache-ref – 其他命名空间缓存配置的引用. resultMap – 是最复杂也是 ...