一 配置SSH

  1. 下载ssh服务端和客户端

    • sudo apt-get install openssh-server openssh-client
  2. 验证是否安装成功
    • ssh username@192.168.30.128
    • 按照提示输入username的密码,回车后显示以下,则成功。(此处不建议修改端口号,hadoop默认的是22,修改后启动hadoop会报异常,除非在hadoop的配置文件中也修改ssh端口号)
    • Welcome to Ubuntu 13.04 (GNU/Linux 3.8.0-34-generic i686)

      * Documentation:  https://help.ubuntu.com/

      New release '13.10' available.
      Run 'do-release-upgrade' to upgrade to it.

      Last login: Sun Dec  8 10:27:38 2013 from ubuntu.local

  3. 公钥-私钥登录配置(无密)
    • ssh-keygen -t rsa -P ""(其中会出现输入提示,回车即可,之后home/username/.ssh/ 下生成id_rsa ,id_rsa.pub, known_hosts三个文件。
        /home/username/ 下生成 authorized_keys 文件)
  4. 将id_rsa.pub追加到authorized_keys授权文件中
    • cat .ssh/id_rsa >> authorized_keys  (切换到/home/username/下)
  5. 公钥-私钥登录配置(有密)
    • ssh-keygen -t rsa (在出现 Enter passphrase (empty for no passphrase):
      时,输入设置的密码。其它同上,此处未测试过)

二 安装JDK(采用OpenJDK,为啥不用JDK...百度or谷歌)

  1. 下载jdk

    • sudo apt-get install openjdk-7-jdk(目前最新的是openjdk-7)
  2. 配置环境变量
    • sudo vim ~/.bashrc
    • (在文件末尾添加)  export JAVA_HOME=/usr/lib/jvm/java-1.6.0-openjdk-i386
         export JRE_HOME=${JAVA_HOME}/jre
         export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
         export PATH=${JAVA_HOME}/bin:$PATH
    • (修改环境变量生效)source ~/.bashrc
  3. 测试jdk是否安装成功
    • java -version(出现以下信息则成功)
    • java version "1.7.0_25"
      OpenJDK Runtime Environment (IcedTea 2.3.10) (7u25-2.3.10-1ubuntu0.13.04.2)
      OpenJDK Client VM (build 23.7-b01, mixed mode, sharing)

三 安装Hadoop和HDFS配置

  1. 下载hadoop

    • tar -zxvf  hadoop-1.2.1.tar.gz(解压到 hadoop-1.2.1目录下)
    • mv hadoop-1.2.1 hadoop(hadoop-1.2.1目录改名为hadoop)
    • cp hadoop /usr/local(复制hadoop到 /usr/local 目录下)
  2. 配置hdfs文件(hadoop/conf/core-site.xmlhadoop/conf/hdfs-site.xml,hadoop/conf/mapred-site.xml
    • sudo vim /usr/local/hadoop/conf/core-site.xml(修改为以下内容)
    • <?xml version="1.0"?>
         <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
        
         <!-- Put site-specific property overrides in this file. -->
        
         <configuration>
           <property>
             <name>fs.default.name</name>
             <value>hdfs://192.168.30.128:9000</value>
          </property>
        </configuration>
    • sudo vim /usr/local/hadoop/conf/hdfs-site.xml(修改为以下内容)
    • <?xml version="1.0"?>
         <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
        
         <!-- Put site-specific property overrides in this file. -->
        
         <configuration>
         <property>
              <name>hadoop.tmp.dir</name>
              <value>/home/username/hadoop_tmp</value><!--需要创建此目录-->
             <description>A base for other temporary directories.</description>
        </property>
        <property>
           <name>dfs.name.dir</name>
           <value>/tmp/hadoop/dfs/datalog1,/tmp/hadoop/dfs/datalog2</value>
        </property>
        <property>
           <name>dfs.data.dir</name>
           <value>/tmp/hadoop/dfs/data1,/tmp/hadoop/dfs/data2</value>
        </property>
        <property>
           <name>dfs.replication</name>
            <value>2</value>
        </property>
    • sudo vim /usr/local/hadoop/conf/mapred-site.xml(修改为以下内容)
    • <?xml version="1.0"?>
         <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
        
         <!-- Put site-specific property overrides in this file. -->
        
         <configuration>
          <property>
           <name>mapred.job.tracker</name>
           <value>192.168.30.128:9001</value>
         </property>
        </configuration>

四  运行wordcount

  1. 在hdfs中创建一个统计目录,输出目录不用创建,否则运行wordcount的时候报错。
  2. ./hadoop fs -mkdir /input
  3. ./hadoop fs -put myword.txt /input
  4. ./hadoop jar /usr/local/hadoop/hadoop-examples-1.2.1.jar wordcount /input /output
  5. ./hadoop fs -cat /output/part-r-00000

Hadoop入门--HDFS(单节点)配置和部署 (一)的更多相关文章

  1. 二、hdfs单节点安装

    一.准备环境 在配置hdfs之前,我们需要先安装好hadoop的配置,本文主要讲述hdfs单节点的安装配置. hadoop的单节点安装配置请参考:https://www.cnblogs.com/lay ...

  2. Zookeeper+Kafka的单节点配置

    Zookeeper+Kafka的单节点配置 环境描述:Ubuntu16.04 server系统,在系统上搭建Java环境,jdk的版本为1.8或更高,我的服务器IP地址为192.168.0.106. ...

  3. HDFS环境搭建(单节点配置)

    [参考文章]:hadoop集群搭建(hdfs) 1. Hadoop下载 官网下载地址: https://hadoop.apache.org/releases.html,进入官网根据自己需要下载具体的安 ...

  4. CentOS7 下 Hadoop 单节点(伪分布式)部署

    Hadoop 下载 (2.9.2) https://hadoop.apache.org/releases.html 准备工作 关闭防火墙 (也可放行) # 停止防火墙 systemctl stop f ...

  5. (3)hadoop单节点配置

    hadopp版本hadoop-2.6.0-cdh5.7.0      下载地址http://archive-primary.cloudera.com/cdh5/cdh/5/ 同样使用flashFXP上 ...

  6. Hbase入门教程--单节点伪分布式模式的安装与使用

    Hbase入门简介 HBase是一个分布式的.面向列的开源数据库,该技术来源于 FayChang 所撰写的Google论文"Bigtable:一个结构化数据的分布式存储系统".就像 ...

  7. Hadoop HDFS 单节点部署方案

    初学者,再次记录一下. 确保Java 和 Hadoop已安装完毕(每个人的不一定一样,但肯定都有数据,仅供参考) [root@jans hadoop-2.9.0]# pwd /usr/local/ha ...

  8. hadoop单节点配置

    首先按照官网的单机去配置,如果官网不行的话可以参考一下配置,这个是配置成功过的.但是不一定每次都成功 http://hadoop.apache.org/docs/r2.6.5/ centos 6.7 ...

  9. 在Ubuntu下配置运行Hadoop2.4.0单节点配置

    还没有修改hosts,请先按前文修改. 还没安装java的,请按照前文配置. (1)增加用户并设立公钥: sudo addgroup hadoop sudo adduser --ingroup had ...

随机推荐

  1. delegate-使用笔记

    public class testclass { public class ProductImages : Page { protected Repeater rptSmallUrls; protec ...

  2. 大规模字符串检索-压缩trie树

    本文使用压缩trie树实现字符串检索的功能.首先将字符串通过编码转化为二进制串,随后将二进制串插入到trie树中,在插入过程中同时实现压缩的功能. 字符编码采用Huffman,但最终测试发现不采用Hu ...

  3. 【BZOJ2653】【主席树+二分】middle

    Description 一个长度为n的序列a,设其排过序之后为b,其中位数定义为b[n/2],其中a,b从0开始标号,除法取下整. 给你一个长度为n的序列s. 回答Q个这样的询问:s的左端点在[a,b ...

  4. CentOS Device eth0 does not seem to be present 解决方案

    1. vi /etc/udev/rules.d/70-persistent-net.rules 记录eth1 的网卡地址 2.vi /etc/sysconfig/network-scrpits/ifc ...

  5. js时间戳与日期格式之间的互转

    1. 将时间戳转换成日期格式 // 简单的一句代码 var date = new Date(时间戳); //获取一个时间对象 注意:如果是uinx时间戳记得乘于1000.比如php函数time()获得 ...

  6. MySql数据库2【常用命令行】

    (一) 连接MYSQL: 格式: mysql -h主机地址 -u用户名 -p用户密码 1.连接到本机上的MYSQL 进入mysql安装目录下的bin目录下,再键入命令mysql -uroot -p,回 ...

  7. nginx 编译选项

    内容有些多,一眼看来难免头昏脑胀,但坚持看完,相信你一定会有所收获. nginx参数: --prefix= 指向安装目录 --sbin-path 指向(执行)程序文件(nginx) --conf-pa ...

  8. [R] /usr/share/doc/apache2/README.Debian.gz

    Contents======== Apache2 Configuration under Debian GNU/Linux Files and Directories in '/etc/apache2 ...

  9. 2013 年 —— Facebook 在开源方面的工作介绍

    自从 Facebook 的第一行PHP代码,第一句 MySQL 的 INSERT 语句,开源就已经是我们工程哲学中的一个重要的部分. 现在,我们使用.维护并为大量的主要项目做出了贡献——涉及多种领域如 ...

  10. java Active Object模式(上)

    Active Object模式简介 Active Object模式是一种异步编程模式.它通过对方法的调用与方法的执行进行解耦来提高并发性.若以任务的概念来说,Active Object模式的核心则是它 ...