一 配置SSH

  1. 下载ssh服务端和客户端

    • sudo apt-get install openssh-server openssh-client
  2. 验证是否安装成功
    • ssh username@192.168.30.128
    • 按照提示输入username的密码,回车后显示以下,则成功。(此处不建议修改端口号,hadoop默认的是22,修改后启动hadoop会报异常,除非在hadoop的配置文件中也修改ssh端口号)
    • Welcome to Ubuntu 13.04 (GNU/Linux 3.8.0-34-generic i686)

      * Documentation:  https://help.ubuntu.com/

      New release '13.10' available.
      Run 'do-release-upgrade' to upgrade to it.

      Last login: Sun Dec  8 10:27:38 2013 from ubuntu.local

  3. 公钥-私钥登录配置(无密)
    • ssh-keygen -t rsa -P ""(其中会出现输入提示,回车即可,之后home/username/.ssh/ 下生成id_rsa ,id_rsa.pub, known_hosts三个文件。
        /home/username/ 下生成 authorized_keys 文件)
  4. 将id_rsa.pub追加到authorized_keys授权文件中
    • cat .ssh/id_rsa >> authorized_keys  (切换到/home/username/下)
  5. 公钥-私钥登录配置(有密)
    • ssh-keygen -t rsa (在出现 Enter passphrase (empty for no passphrase):
      时,输入设置的密码。其它同上,此处未测试过)

二 安装JDK(采用OpenJDK,为啥不用JDK...百度or谷歌)

  1. 下载jdk

    • sudo apt-get install openjdk-7-jdk(目前最新的是openjdk-7)
  2. 配置环境变量
    • sudo vim ~/.bashrc
    • (在文件末尾添加)  export JAVA_HOME=/usr/lib/jvm/java-1.6.0-openjdk-i386
         export JRE_HOME=${JAVA_HOME}/jre
         export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
         export PATH=${JAVA_HOME}/bin:$PATH
    • (修改环境变量生效)source ~/.bashrc
  3. 测试jdk是否安装成功
    • java -version(出现以下信息则成功)
    • java version "1.7.0_25"
      OpenJDK Runtime Environment (IcedTea 2.3.10) (7u25-2.3.10-1ubuntu0.13.04.2)
      OpenJDK Client VM (build 23.7-b01, mixed mode, sharing)

三 安装Hadoop和HDFS配置

  1. 下载hadoop

    • tar -zxvf  hadoop-1.2.1.tar.gz(解压到 hadoop-1.2.1目录下)
    • mv hadoop-1.2.1 hadoop(hadoop-1.2.1目录改名为hadoop)
    • cp hadoop /usr/local(复制hadoop到 /usr/local 目录下)
  2. 配置hdfs文件(hadoop/conf/core-site.xmlhadoop/conf/hdfs-site.xml,hadoop/conf/mapred-site.xml
    • sudo vim /usr/local/hadoop/conf/core-site.xml(修改为以下内容)
    • <?xml version="1.0"?>
         <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
        
         <!-- Put site-specific property overrides in this file. -->
        
         <configuration>
           <property>
             <name>fs.default.name</name>
             <value>hdfs://192.168.30.128:9000</value>
          </property>
        </configuration>
    • sudo vim /usr/local/hadoop/conf/hdfs-site.xml(修改为以下内容)
    • <?xml version="1.0"?>
         <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
        
         <!-- Put site-specific property overrides in this file. -->
        
         <configuration>
         <property>
              <name>hadoop.tmp.dir</name>
              <value>/home/username/hadoop_tmp</value><!--需要创建此目录-->
             <description>A base for other temporary directories.</description>
        </property>
        <property>
           <name>dfs.name.dir</name>
           <value>/tmp/hadoop/dfs/datalog1,/tmp/hadoop/dfs/datalog2</value>
        </property>
        <property>
           <name>dfs.data.dir</name>
           <value>/tmp/hadoop/dfs/data1,/tmp/hadoop/dfs/data2</value>
        </property>
        <property>
           <name>dfs.replication</name>
            <value>2</value>
        </property>
    • sudo vim /usr/local/hadoop/conf/mapred-site.xml(修改为以下内容)
    • <?xml version="1.0"?>
         <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
        
         <!-- Put site-specific property overrides in this file. -->
        
         <configuration>
          <property>
           <name>mapred.job.tracker</name>
           <value>192.168.30.128:9001</value>
         </property>
        </configuration>

四  运行wordcount

  1. 在hdfs中创建一个统计目录,输出目录不用创建,否则运行wordcount的时候报错。
  2. ./hadoop fs -mkdir /input
  3. ./hadoop fs -put myword.txt /input
  4. ./hadoop jar /usr/local/hadoop/hadoop-examples-1.2.1.jar wordcount /input /output
  5. ./hadoop fs -cat /output/part-r-00000

Hadoop入门--HDFS(单节点)配置和部署 (一)的更多相关文章

  1. 二、hdfs单节点安装

    一.准备环境 在配置hdfs之前,我们需要先安装好hadoop的配置,本文主要讲述hdfs单节点的安装配置. hadoop的单节点安装配置请参考:https://www.cnblogs.com/lay ...

  2. Zookeeper+Kafka的单节点配置

    Zookeeper+Kafka的单节点配置 环境描述:Ubuntu16.04 server系统,在系统上搭建Java环境,jdk的版本为1.8或更高,我的服务器IP地址为192.168.0.106. ...

  3. HDFS环境搭建(单节点配置)

    [参考文章]:hadoop集群搭建(hdfs) 1. Hadoop下载 官网下载地址: https://hadoop.apache.org/releases.html,进入官网根据自己需要下载具体的安 ...

  4. CentOS7 下 Hadoop 单节点(伪分布式)部署

    Hadoop 下载 (2.9.2) https://hadoop.apache.org/releases.html 准备工作 关闭防火墙 (也可放行) # 停止防火墙 systemctl stop f ...

  5. (3)hadoop单节点配置

    hadopp版本hadoop-2.6.0-cdh5.7.0      下载地址http://archive-primary.cloudera.com/cdh5/cdh/5/ 同样使用flashFXP上 ...

  6. Hbase入门教程--单节点伪分布式模式的安装与使用

    Hbase入门简介 HBase是一个分布式的.面向列的开源数据库,该技术来源于 FayChang 所撰写的Google论文"Bigtable:一个结构化数据的分布式存储系统".就像 ...

  7. Hadoop HDFS 单节点部署方案

    初学者,再次记录一下. 确保Java 和 Hadoop已安装完毕(每个人的不一定一样,但肯定都有数据,仅供参考) [root@jans hadoop-2.9.0]# pwd /usr/local/ha ...

  8. hadoop单节点配置

    首先按照官网的单机去配置,如果官网不行的话可以参考一下配置,这个是配置成功过的.但是不一定每次都成功 http://hadoop.apache.org/docs/r2.6.5/ centos 6.7 ...

  9. 在Ubuntu下配置运行Hadoop2.4.0单节点配置

    还没有修改hosts,请先按前文修改. 还没安装java的,请按照前文配置. (1)增加用户并设立公钥: sudo addgroup hadoop sudo adduser --ingroup had ...

随机推荐

  1. Pomelo实现最简单的通信-egret。

    昨天因为需要开始学习Pomelo 做H5游戏的服务端. 因为个人学习习惯,我从来不适合去跟着文档看.一般我直接是看下大概的API,但是Pomelo的API全部都是英文的. 昨天我就告诉自己用一下午时间 ...

  2. 【HDU2815】【拓展BSGS】Mod Tree

    Problem Description   The picture indicates a tree, every node has 2 children.  The depth of the nod ...

  3. 【BZOJ2648】【kd_tree】SJY摆棋子

    Description   这天,SJY显得无聊.在家自己玩.在一个棋盘上,有N个黑色棋子.他每次要么放到棋盘上一个黑色棋子,要么放上一个白色棋子,如果是白色棋子,他会找出距离这个白色棋子最近的黑色棋 ...

  4. Valid Phone Numbers

    Given a text file file.txt that contains list of phone numbers (one per line), write a one liner bas ...

  5. Java 可变参数

    java1.5增加了新特性:可变参数:适用于参数个数不确定,类型确定的情况,java把可变参数当做数组处理.注意:可变参数必须位于最后一项.当可变参数个数多余一个时,必将有一个不是最后一项,所以只支持 ...

  6. js转换/Date(........)/

    eval('new ' + (datetime.replace(/\//g, ''))); 好记性不如烂笔头,记下以备后用.

  7. [前端笔记]第三篇:JavaScript

    JavaScript是一门编程语言,浏览器内置了JavaScript语言的解释器,所以在浏览器上按照JavaScript语言的规则编写相应代码之,浏览器可以解释并做出相应的处理. 一.代码存放位置 J ...

  8. cygwin编译ffmpeg移植到android平台问题集锦

    编译环境: windows xp Cygwin 1.1.3.1 NDK r9 1.提示各种command not found 比如 ./config.sh: line 6: $'--arch=arm\ ...

  9. 兼容PHP和Java的des加密解密代码分享

    这篇文章主要介绍了兼容PHP和Java的des加密解密代码分享,适合如服务器是JAVA语言编写,客户端是PHP编写,并需要des加密解密的情况,需要的朋友可以参考下 作为一个iOS工程师来解决安卓的问 ...

  10. Ruby自学笔记(五)— 条件判断

    条件判断,在编程语言中都存在,而Ruby中的条件判断和Java中类似,当然还是存在些许差别 Ruby中条件判断的条件: 1) 可以使用 ==,<,>等比较运算来作为条件,比较运算可以返回t ...