1.创建用户

  adduser hduser

  修改hduser用户权限:

  sudo vim /ect/sudoers ,在文件中增加 hduser  ALL=(ALL:ALL) ALL 。

  

2.安装ssh并设置无密码登陆

  1)sudo apt-get install openssh-server

  2)启动服务:sudo /etc/init.d/ssh start

  3)查看服务是否正确启动:ps -e | grep ssh

  

  4)设置免密码登录,生成私钥和公钥

  ssh-keygen -t rsa -P ""

  cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

  

  5)免密码登陆:ssh localhost

  6) exit

3.配置java 环境

  1)下载:jdk-8u25-linux-x64.tar.gz

  2)解压:tar -xzvf jdk-8u25-linux-x64.tar.gz  

  3) sudo mv jdk1.8.0_25  /usr/local/

  4)设置环境变量:sudo vim /etc/profile(全局设置文件,也可以设置~/.bashrc文件,~/.bashrc文件设置只是该用户的设置文件),在末尾添加:

  export JAVA_HOME=/usr/local/jdk1.8.0_25
      export JRE_HOME=${JAVA_HOME}/jre  
      export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib  
      export PATH=${JAVA_HOME}/bin:$PATH

  

  5)source /etc/profile

  6)测试是否成功:java -version

  

4.hadoop单机安装

  1) 下载

  2) 解压:sudo tar -xzvf hadoop-2.4.1.tar.gz

  3) sudo mv hadoop-2.4.1 /usr/local/

  4) sudo chmod 774 hadoop-2.4.1

  5) vim .bashrc,在文件末尾添加

  export JAVA_HOME=/usr/local/jdk1.8.0_25  (选择自己的java安装路径)

  export HADOOP_INSTALL=/usr/local/hadoop-2.4.1  (自己的hadoop安装路径)

  export PATH=$PATH:$HADOOP_INSTALL/bin

  export PATH=$PATH:$HADOOP_INSTALL/sbin

  export HADOOP_MAPRED_HOME=$HADOOP_INSTALL

  export HADOOP_COMMON_HOME=$HADOOP_INSTALL

  export HADOOP_HDFS_HOME=$HADOOP_INSTALL

  export YARN_HOME=$HADOOP_INSTALL

  export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_INSTALL/lib/native

  export HADOOP_OPTS="-Djava.library.path=$HADOOP_INSTALL/lib"

  

  6) source .bashrc

  7) 进入/usr/local/hadoop-2.4.1/etc/hadoop 目录,配置hadoop-env.sh

   vim hadoop-env.sh,填入自己的java路径,hadoop的配置路径(单机不修改hadoop配置路径不影响,伪分布式必须修改)

  

  8) source hadoop-env.sh单机模式配置完

  9) WordCount测试

  mkdir input  , cd input ,vim test.txt

  bin/hadoop jar share/hadoop/mapreduce/sources/hadoop-mapreduce-examples-2.4.1-sources.jar org.apache.hadoop.examples.WordCount input output

  

  cat output/*

  

5.伪分布式配置:(进入/usr/local/hadoop-2.4.1/etc/hadoop)

  1)配置core-site.xml:vim core-site.xml,添加:

  在/usr/local/hadoop-2.4.1 下创建tmp文件夹: mkdir tmp

   <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/usr/local/hadoop-2.4.1/tmp</value>
        <description>Abase for other temporary directories.</description>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>

  

  2)配置hdfs-site.xml: vim hdfs-site.xml,添加:

  在/usr/local/hadoop-2.4.1下创建文件夹:mkdir hdfs , mkdir hdfs/name , mkdir hdfs/data

  <configuration>

   <property>
            <name>dfs.replication</name>
            <value>1</value>
      </property>

  <property>
            <name>dfs.namenode.name.dir</name>
            <value>file:/usr/local/hadoop-2.4.1/hdfs/name</value>
      </property>

  <property>
          <name>dfs.datanode.data.dir</name>
          <value>file:/usr/local/hadoop-2.4.1/hdfs/data</value>
      </property>

  </configuration>

  

  3)配置yarn-site.xml:vim yarn-site.xml,添加:

  <configuration>
   <property>
     <name>yarn.nodemanager.aux-services</name>
          <value>mapreduce_shuffle</value>
      </property>

   <property>
          <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
          <value>org.apache.hadoop.mapred.ShuffleHandler</value>
      </property>
  </configuration>
  

  4)配置mapred-site.xml: cp mapred-site.xml.template mapred-site.xml, vim mapred-site.xml ,添加:

  <configuration>
     <property>
     <name>mapreduce.framework.name</name>
          <value>yarn</value>
      </property>
  </configuration>

  

  5)格式化hdfs :  hdfs namenode -format

  6)执行启动命令: sbin/start-dfs.sh   sbin/start-yarn.sh

  7)jps查看和java有关的进程:

  

  8)hadoop管理界面:http://localhost:50070/

  

  9)hadoop进程管理界面:http://localhost:8088

  

  

hadoop学习一:hadoop安装(hadoop2.4.1,ubuntu14.04)的更多相关文章

  1. UEFI双硬盘安装win8.1和Ubuntu14.04

    UEFI双硬盘安装win8.1和Ubuntu14.04 安装环境 UEFI启动模式 双GPT硬盘 一个ssd 一个hdd 笔记本已安装win8.1 硬盘启动顺序为: U盘 ssd hdd 光驱 安装方 ...

  2. Hadoop学习(5)-- Hadoop2

    在Hadoop1(版本<=0.22)中,由于NameNode和JobTracker存在单点中,这制约了hadoop的发展,当集群规模超过2000台时,NameNode和JobTracker已经不 ...

  3. hadoop学习通过虚拟机安装hadoop完全分布式集群

    要想深入的学习hadoop数据分析技术,首要的任务是必须要将hadoop集群环境搭建起来,可以将hadoop简化地想象成一个小软件,通过在各个物理节点上安装这个小软件,然后将其运行起来,就是一个had ...

  4. Hadoop学习之Hadoop集群搭建

    1.检查网络状况 Dos命令:ping ip地址,同时,在Linux下通过命令:ifconfig可以查看ip信息2.修改虚拟机的ip地址    打开linux网络连接,在桌面右上角,然后编辑ip地址, ...

  5. hadoop学习;hadoop伪分布搭建

    先前已经做了准备工作安装jdk什么的,以下開始ssh免password登陆.这里我们用的是PieTTY工具,当然你也能够直接在linux下直接操作 ssh(secure shell),运行命令 ssh ...

  6. Hadoop学习笔记Hadoop伪分布式环境建设

    建立一个伪分布式Hadoop周围环境 1.主办(Windows)顾客(安装在虚拟机Linux)网络连接. a) Host-only 主机和独立客户端联网: 好处:网络隔离: 坏处:虚拟机和其他serv ...

  7. Hadoop学习笔记——Hadoop经常使用命令

    Hadoop下有一些经常使用的命令,通过这些命令能够非常方便操作Hadoop上的文件. 1.查看指定文件夹下的内容 语法: hadoop fs -ls 文件文件夹 2.打开某个已存在的文件 语法: h ...

  8. Openmpi 编译安装+集群配置 + Ubuntu14.04 + SSH无密码连接 + NFS共享文件系统

    来源 http://www.open-mpi.org/ 网络连接 SSH连接,保证各台机器之间可以无密码登陆,此处不展开 hosts文件如下 #/etc/hosts 192.168.0.190 mas ...

  9. Hadoop学习笔记: 安装配置Hadoop

    安装前的一些环境配置: 1. 给用户添加sudo权限,输入su - 进入root账号,然后输入visudo,进入编辑模式,找到这一行:"root ALL=(ALL) ALL"在下面 ...

随机推荐

  1. P1531 I Hate It

    题目背景 很多学校流行一种比较的习惯.老师们很喜欢询问,从某某到某某当中,分数最高的是多少.这让很多学生很反感. 题目描述 不管你喜不喜欢,现在需要你做的是,就是按照老师的要求,写一个程序,模拟老师的 ...

  2. 2017 Multi-University Training Contest - Team 2 TrickGCD(组合数学)

    题目大意: 给你一个序列An,然后求有多少个序列Bn 满足Bi<=Ai,且这个序列的gcd不为1 题解: 考虑这样做 枚举一个因子k,然后求出有多少个序列的gcd包含这个因子k 然后把结果容斥一 ...

  3. 洛谷 P1251 餐巾计划问题

    题目链接 最小费用最大流. 每天拆成两个点,早上和晚上: 晚上可以获得\(r_i\)条脏毛巾,从源点连一条容量为\(r_i\),费用为0的边. 早上要供应\(r_i\)条毛巾,连向汇点一条容量为\(r ...

  4. [Leetcode] Longest consecutive sequence 最长连续序列

    Given an unsorted array of integers, find the length of the longest consecutive elements sequence. F ...

  5. [Leetcode] n queens ii n皇后问题

    Follow up for N-Queens problem. Now, instead outputting board configurations, return the total numbe ...

  6. ar用法小记

    ar是用来创建.修改或者从档案文件中提取的GNU程序,它被认为是一个二进制的工具,因为它最大的应用就是将一些子程序归档为库文件. 用法概述 ar [-]p[mod [relpos] [count]] ...

  7. Spring事务管理—aop:pointcut expression 常见切入点表达式及事务说明

    Spring事务管理—aop:pointcut expression 常见切入点表达式及事物说明 例: <aop:config>  <aop:pointcut expression= ...

  8. HDU2389:Rain on your Parade(二分图最大匹配+HK算法)

    Rain on your Parade Time Limit: 6000/3000 MS (Java/Others)    Memory Limit: 655350/165535 K (Java/Ot ...

  9. bzoj 3456 城市规划 多项式求逆+分治FFT

    城市规划 Time Limit: 40 Sec  Memory Limit: 256 MBSubmit: 1091  Solved: 629[Submit][Status][Discuss] Desc ...

  10. WebForm 在 Global.asax 中捕获全局异常

    /// <summary> /// 捕获全局异常 /// </summary> /// <param name="sender">sender& ...