配置 Hadoop 伪分布式

任务配置说明:

    1. VMware 15

    2. Centos 6.5

    3. java -jdk 1.8

    4. hadoop-2.6.0-cdh5.14.0.tar.gz

第一步

自行安装虚拟机

第二步 开始大配置

  1. 修改主机名和用户名

    •  vim /etc/sysconfig/network  --(将HOSTNAME=) 改为master(主机的意思)
    •  vim /etc/hosts  --(增加一行内容 ip    master)
  2. 配置静态ip

    •  vim /etc/sysconfig/network-scripts/ifcfg-eth0
      • 修改内容如下:

         DEVICE=eth0 (网卡名称)
         HWADDR=00:0C:29:63:C3:47
         TYPE=Ethernet
         UUID=7cce5090-6637-40fc-a47e-9f5e2d561b46
         ONBOOT=yes (必须设置 设置启动)
         NM_CONTROLLED=yes
         BOOTPROTO=static (静态)
         IPADDR=192.168.65.21  --(你的ip)
         NETMASK=255.255.255.0 --(子网掩码)
         GATEWAY=192.168.65.1  --(网关)
         DNS1=114.114.114.114  --(DNS)
  3. 配置SSH无密码连接

    • 关闭防火墙

      •  service iptables stop  --(仅一次性关闭防火墙  再次开机防火墙就重新开启了)
      •  chkconfig iptables off  --(永久关闭防火墙  防止重启防火墙自启动)
    • 配置 SSH

      • 安装 ssh

        •  yum install ssh
      • 安装 rsync

        •  yum install rsync
    • 启动 SSH 服务命令

      •  service sshd restart
      • 检查 ssh 是否已经安装成功 可以执行 rpm -qa | grep openssh

      • 出现

        •  [hadoop@master ~]$  rpm -qa | grep openssh
           openssh-server-5.3p1-94.el6.x86_64
           openssh-clients-5.3p1-94.el6.x86_64
           openssh-5.3p1-94.el6.x86_64
           openssh-askpass-5.3p1-94.el6.x86_64
        • 代表成功

      • 检查 rsync 是否安装成功 可执行 rpm -qa | grep rsync

        • 出现

          •  [hadoop@master ~]$ rpm -qa | grep rsync
             rsync-3.0.6-12.el6.x86_64
          • 代表成功

    • 生成 SSH 公钥 (只可以生成当前执行用户的秘钥)

      •  ssh-keygen -t rsa  --(连续回车即可)  
      •  ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop(用户名)@master(主机名)
      • 验证 ssh master

    4.配置 java 环境

    • 安装 Java jdk

      • 卸载初始系统存在的jdk

        • 检查 是否安装了jdk

        •  rpm -qa | grep jdk
          • 如果出现了返回值 那么使用 yum -y remove xxx(将返回值输入即可)

      • 安装 JDK (需要实现上传)

        •  tar -zxvf jdk-8u221-linux-x64.tar.gz  --(解压压缩包)
        • 修改环境配置文件

          • vim /etc/profile

            • 文件末尾添加

              • #java --(注释代表java)

                 export JAVA_HOME=/home/hadoop/app/jdk1.8.0_221 --(你java安装目录)
                 export PATH=$PATH:$JAVA_HOME/bin
          • 让配置文件修改后生效

            •  source /etc/profile
      • 验证 java是否安装成功 --(输入java命令即可)

        •  [hadoop@master jdk1.8.0_221]$ java
        • 如若返回一大页东西则安装成功 java -version可以查看当前java版本信息

    5.配置 hadoop 环境

    • 老样子 先解压

      •   tar -zxvf hadoop-2.6.0-cdh5.14.0.tar.gz
    • 修改配置文件信息

      • 进入 hadoop 配置文件目录 cd /home/hadoop/app/hadoop-2.6.0-cdh5.14.0/etc/hadoop/

      • 修改 hadoop-env.sh 文件 末尾追加以下内容

        •  export JAVA_HOME=/home/hadoop/app/jdk1.8.0_221
        •  export HADOOP_HOME=/home/hadoop/app/hadoop-2.6.0-cdh5.14.0
      • 修改 core-site.xml 文件

         <configuration>
                 <property>
                         <name>fs.default.name</name>
                         <value>hdfs://master:9000</value>
                 </property>
         </configuration>
      • 修改 hdfs-site.xml

         <configuration>
                 <property>
                         <name>dfs.replication</name>
                         <value>3</value>
                 </property>
                 <property>
                         <name>dfs.name.dir</name>
                         <value>/home/hadoop/app/hadoop-2.6.0-cdh5.14.0/hdfs/name</value>
                 </property>
                 <property>
                         <name>dfs.data.dir</name>
                         <value>/home/hadoop/app/hadoop-2.6.0-cdh5.14.0/hdfs/data</value>
                 </property>
         </configuration>
      • 修改 mapred-site.xml

        • 可以看到我们目录中没有mapred-site.xml 我们可以通过模板拷贝出来一个

          •  cp mapred-site.xml.template mapred-site.xml
          •  vim mapred-site.xml
        • 添加如下内容

           <configuration>
                   <property>
                           <name>mapreduce.framework.name</name>
                           <value>yarn</value>
                   </property>
           </configuration>
      • 修改 yarn-site.xml

         <configuration>
         ​
         <!-- Site specific YARN configuration properties -->
                 <property>
                         <name>yarn.resourcemanager.address</name>
                         <value>master:8080</value>
                 </property>
                 <property>
                         <name>yarn.resourcemanager.resource-tracker.address</name>
                         <value>master:8082</value>
                 </property>
                 <property>
                         <name>yarn.nodemanager.aux-services</name>
                         <value>mapreduce_shuffle</value>
                 </property>
                 <property>
                         <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
                         <value>org.apache.hadoop.mapred.ShuffleHandler</value>
                 </property>
         </configuration>
      • 修改 slaves

         master
    • 至此,Hadoop 安装配置工作全部完成,为了能在任何路径下使用 Hadoop 命令,还需要配置环境变量

      • 对 /etc/profile 追加如下信息

         export HADOOP_HOME=/home/hadoop/app/hadoop-2.6.0-cdh5.14.0
         export PATH=$PATH:$HADOOP_HOME/bin
      • 对 环境配置文件生效

         [hadoop@master hadoop]$ source /etc/profile
    • 在第一次启动 Hadoop 之前,必须对 HDFS 格式化,执行命令

       [hadoop@master hadoop]$ hadoop namenode -format

第三步

  • 启动 Hadoop

    • 格式化 Hadoop 完成后,便可以启动 hadoop ,不过首先我们赋予脚本可执行权限

       [hadoop@master hadoop]$ chmod +x -R /home/hadoop/app/hadoop-2.6.0-cdh5.14.0/sbin
    • 然后就可以启动集群了 执行启动脚本 --(进入hadoop的sbin脚本目录)

       [hadoop@master sbin]$ cd /home/hadoop/app/hadoop-2.6.0-cdh5.14.0/sbin
    • 执行脚本

       [hadoop@master sbin]$ bash start-all.sh
    • 最后检查要启动的节点是否正常启动

       [hadoop@master sbin]$ jps
       9025 DataNode
       9185 SecondaryNameNode
       8899 NameNode
       9335 ResourceManager
       9432 NodeManager
       9644 Jps
    • 至此 一切完成

第四步

  • 我们可以打开浏览器查看我们的HDFS

    • 如果 linux 有浏览器可以通过浏览器地址输入

       master:50070   --(即可访问)
    • 如果 想在windows访问 打开浏览器

       linuxip:50070
       例如我的:192.168.65.21:50070
  • 大功告成了

hadoop 伪分布配置的更多相关文章

  1. Hadoop伪分布配置与基于Eclipse开发环境搭建

    国内私募机构九鼎控股打造APP,来就送 20元现金领取地址:http://jdb.jiudingcapital.com/phone.html内部邀请码:C8E245J (不写邀请码,没有现金送)国内私 ...

  2. centos 6.4-linux环境配置,安装hadoop-1.1.2(hadoop伪分布环境配置)

    1 Hadoop环境搭建 hadoop 的6个核心配置文件的作用: core-site.xml:核心配置文件,主要定义了我们文件访问的格式hdfs://. hadoop-env.sh:主要配置我们的j ...

  3. hadoop2.6.0 + hbase-1.0.0 伪分布配置

    1 基本配置 主机名: 192.168.145.154 hadoop2 ======= 2 etc/hadoop下文件配置 1)core-site.xml <configuration> ...

  4. Data - Hadoop伪分布式配置 - 使用Hadoop2.8.0和Ubuntu16.04

    系统版本 anliven@Ubuntu1604:~$ uname -a Linux Ubuntu1604 4.8.0-36-generic #36~16.04.1-Ubuntu SMP Sun Feb ...

  5. Hadoop伪分布安装配置

    安装环境: 系统:Ubuntu 14.10   64bit hadoop:2.5.1 jdk:1.8.0_11 安装步骤: 一.安装JDK 安装 jdk,并且配置环境以及设置成默认 sudo gedi ...

  6. hadoop伪分布安装

    解压 将安装包hadoop-2.2.0.tar.gz存放到/home/haozhulin/install/目录下,并解压 #将hadoop解压到/home/haozhulin/install路径下,定 ...

  7. Hadoop伪分布安装详解(五)

    目录: 1.修改主机名和用户名 2.配置静态IP地址 3.配置SSH无密码连接 4.安装JDK1.7 5.配置Hadoop 6.安装Mysql 7.安装Hive 8.安装Hbase 9.安装Sqoop ...

  8. hadoop 伪分布启动-fs格式化

    1.独立模式(standalone|local) nothing! 本地文件系统. 不需要启用单独进程. 2.pesudo(伪分布模式) 等同于完全分布式,只有一个节点. SSH: //(Socket ...

  9. Hadoop伪分布搭建

    一.伪分布式的搭建 1.准备Linux环境 1.0点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改 ...

随机推荐

  1. CSS3过渡结束监听事件,清除/修改表单元素的一些默认样式

    document.querySelector('div').addEventListener('transitionEnd',function(){ console.log('过度结束') }) 如果 ...

  2. RMQ(倍增法求ST)

    解决什么问题:区间查询最值 倍增思想:每次得出结果的范围呈2的幂次增长,有人说相当于二分,目前我觉得相当于线段树的查找. 具体理解看代码: /*倍增法求ST*/ #include<math.h& ...

  3. jsonp跨域的原理及实现

    1,什么是跨域? 跨域跨域,跨过域名,笼统来说就是一个域名区请求另外一个域名的数据,但实际上,不同端口.不同域名.不同协议上请求数据都会出现跨域问题.浏览器出于安全考虑会报出异常,拒绝访问. 2,js ...

  4. 面试官:JavaScript 原始数据类型 Symbol 有什么用?

    以前提到 JavaScript 原始数据类型时,我们知道有Number,String,Null,Boolean,Undefined这几种.ES6 引入了新的基本数据类型Symbol和BigInt.今天 ...

  5. C语言:const关键字用法

    参考博客:https://www.cnblogs.com/bianchengzhuji/p/10335837.html const是constant的简写,是不变的意思.但并不是说它修饰常量,而是说它 ...

  6. PTA数据结构与算法题目集(中文) 7-25

    PTA数据结构与算法题目集(中文)  7-25 7-25 朋友圈 (25 分)   某学校有N个学生,形成M个俱乐部.每个俱乐部里的学生有着一定相似的兴趣爱好,形成一个朋友圈.一个学生可以同时属于若干 ...

  7. SpringCloud(二)之我学 Ribbon

    1.负载均衡 Ribbon 虽然不是显示的配置为一个子项目,但是无论是在 API 网关的转发请求,还是服务之间的调用 Feign ,都是通过 Ribbon 来做负载均衡的. 负载均衡,主要是为了对系统 ...

  8. Jmeter压力测试笔记(5)问题原因

    压测链路是jmeter=>slb=>nginx => php=>rds 报 Too Many Connections 的原因是前端同时保持了 16000 个连接,达到实例规格的 ...

  9. Java第十天,多态

    多态 一.多态的定义: 一个对象拥有多种形态,这就是对象的多态性.也就是说多态针对的是对象.多态的前提是接口和继承(C++中实行多继承,不存在接口). 二.多态在代码中的形式: 父类 对象名 = ne ...

  10. 30.6 HashMap的使用

    /* * * 使用HashMap存储数据并遍历(字符串作为key) * *使用HashMap存储数据并遍历(自定义对象作为key) */ 字符串做key和Map的使用一样,重点介绍自定义对象作为key ...