本节目的:搭建Hadoop分布式集群环境

  1. 环境准备
    1. LZ用OS X系统 ,安装两台Linux虚拟机,Linux系统用的是CentOS6.5;Master Ip:10.211.55.3 ,Slave Ip:10.211.55.4
    2. 各虚拟机环境配置好Jdk1.8(1.7+即可)
  2. 资料准备
    1. hadoop-2.7.3.tar.gz
  3. 虚拟机配置步骤
    1. 以下操作都在两台虚拟机 root用户下操作,切换至root用户命令
    2. 配置Master hostname 为Master ;
      vi /etc/sysconfig/network
      

    3. 生效hostname 
      hostname master
      

      检测主机名是否修改成功命令如下,在操作之前需要关闭当前终端,重新打开一个终端:即可看到终端命令前是[user@hostname]

    4. 按照步骤6+7 配置Slave hostname 为 Slave;
    5. 关闭Slave防火墙
      service iptables stop
      

    6. 各虚拟机配置hosts列表,
      vi /etc/hosts
      

      添加内容(LZ master Ip是10.211.55.3,Salve Ip 是10.211.55.4)

    7. 验证
      ping slave
      ping master

      如图表示修改成功

    8. 免密钥登录配置(此部分操作均在用户mfz下操作,切换至用户:su mfz)
      1. Master节点上操作:

        ssh-keygen -t rsa      (多次回车(Enter)即可)
      2. 复制公钥文件

        cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
      3. 执行 ll查看  

      4. 修改authorized_keys文件的权限,命令如下:

        chmod  ~/.ssh/authorized_keys   (执行后文件权限为 -rw------- )

            

      5. 将authorized_keys文件复制到slave节点,命令如下:

        scp ~/.ssh/authorized_keys mfz@slave:~/       (如果提示输入yes/no的时候,输入yes,回车密码是mfz slave登录密码)
      6. slave节点上操作
      7. 在终端生成密钥,命令如下(一路点击回车生成密钥)
        ssh-keygen -t rsa

        将authorized_keys文件移动到.ssh目录

        mv authorized_keys ~/.ssh/
      8. 修改authorized_keys文件的权限,命令如下:
        cd ~/.ssh
        chmod authorized_keys
      9. 验证免密钥登录 ,在master节点上执行命令如下
        ssh slave

        如果还提示输入slave登录密码则配置出错。检查步骤。

  4. Hadoop配置
    1. 每个节点上的Hadoop配置基本相同,在HadoopMaster节点操作,然后完成复制到另一个节点。下面所有的操作都使用mfz用户,切换mfz用户的命令是:su mfz

    2. 资源包上传到 /home/mfz/resources/下
      1.   
    3. 执行命令,最后如果显示目录如下图则表示操作成功
    4. cp /home/mfz/resources/hadoop-2.7..tar.gz /home/mfz/
      cd /home/mfz
      tar -xzvf hadoop-2.7..tar.gz
      ll hadoop-2.7.

    5. 修改配置环境变量hadoop-env.sh 环境变量
      vi /home/mfz/hadoop-2.7./etc/hadoop/hadoop-env.sh

      
      
    6. 配置hdfs-site.xml,添加\替换 如下

      <configuration>
      <property>
      <name>dfs.replication</name>
      <value></value>
      </property>
      </configuration>
    7. 配置core-site.xml ,添加\替换 如下
      <configuration>
      <property>
      <name>fs.defaultFS</name>
      <value>hdfs://master:9000</value>
      </property>
      <property>
      <name>hadoop.tmp.dir</name>
      <value>/home/mfz/hadoopdata</value>
        <description>A base for other temporary directories.</description>
      </property>
      </configuration>
    8. 修改yarn-env.sh  环境变量
      vi yarn-env.sh

    9. 配置yarn-site.xml
      <configuration>
      <property>
      <name>yarn.nodemanager.aux-services</name>
      <value>mapreduce_shuffle</value>
      </property>
      <property>
      <name>yarn.resourcemanager.address</name>
      <value>master:</value>
      </property>
      <property>
      <name>yarn.resourcemanager.scheduler.address</name>
      <value>master:</value>
      </property>
      <property>
      <name>yarn.resourcemanager.resource-tracker.address</name>
      <value>master:</value>
      </property>
      <property>
      <name>yarn.resourcemanager.admin.address</name>
      <value>master:</value>
      </property>
      <property>
      <name>yarn.resourcemanager.webapp.address</name>
      <value>master:</value>
      </property>
      </configuration>
    10. 配置计算框架mapred-site.xml

      cp mapred-site.xml.template mapred-site.xml
      vi mapred-site.xm --添加/替换 如下 <configuration>
      <property>
      <name>mapreduce.framework.name</name>
      <value>yarn</value>
      </property>
      </configuration>
    11. 修改slaves文件,插入slave 节点hostname (可配置多个slave)
      vi /home/mfz/hadoop-2.7./etc/hadoop/slaves
      cat /home/mfz/hadoop-2.7./etc/hadoop/slaves

    12. 复制到从节点(使用下面的命令将已经配置完成的Hadoop复制到从节点HadoopSlave上)  (可复制到多个slave)

      cd
      scp -r hadoop-2.7. slave:~/ --注意:因为之前已经配置了免密钥登录,这里可以直接远程复制。

      
      
  5. 运行验证-启动Hadoop集群 
    1. 该节的配置需要同时在两个节点(HadoopMaster和HadoopSlave)上进行操作
    2. 操作命令如下:(LZ 环境变量统一放在了/etc/profile 下,也可放于单个用户~/.base_profile 下)
      cd
      vi /etc/profile 添加如下内容 #HADOOP
      export HADOOP_HOME=/home/mfz/hadoop-2.7.
      export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH 生效配置
      source /etc/profile
    3. 创建数据目录(该节的配置需要同时在两个节点(HadoopMaster和HadoopSlave)上进行操作。)

      1. cd 
        mkdir hadoopdata
        说明:(在用户mfz主目录下操作,此hadoopData目录是hadoop-2.7.3/etc/hadoop/core-site.xml 中hadoop.tmp.dir 的 value)
      2. 格式化文件系统   ---格式化命令如下,该操作需要在HadoopMaster节点上执行:
        hdfs namenode -format

      3. 如果出现ERROR/Exception 则表示出现问题了。自行百度解决。。。
      4. Master节点上启动hadoop 集群
        cd /home/mfz/hadoop-2.7./
        
        sbin/start-all.sh

        在master的终端执行jps命令,在打印结果中会看到4个进程,分别是ResourceManager、Jps、NameNode和SecondaryNameNode,如下图所示。如果出现了这4个进程表示主节点进程启动成功。

        在slave的终端执行jps命令,在打印结果中会看到3个进程,分别是NodeManager、DataNode和Jps,如下图所示。如果出现了这3个进程表示从节点进程启动成功。

    4.  验证启动结果

      1. 验证1:Web UI查看集群是否成功启动,在Master上启动Firefox浏览器,在浏览器地址栏中输入输入http://master:50070/,检查namenode 和datanode 是否正常。UI页面如下图所示。

      2. 验证2: 在Master上启动Firefox浏览器,在浏览器地址栏中输入输入http://master:18088/,检查Yarn是否正常,页面如下图所示。

      3. 验证3:mfz用户下输入如下命令,得到结果最后输出'Job Finished in 72.742 seconds   Estimated value of Pi is 3.20000000000000000000'则表示操作成功。
      4. cd
        cd hadoop-2.7./share/hadoop/mapreduce/
        hadoop jar hadoop-mapreduce-examples-2.7..jar pi

      5. 以上3个步骤验证都没有问题的话表示你成功完成了Hadoop分布式集群搭建。:)

大数据系列之Hadoop分布式集群部署的更多相关文章

  1. Hadoop分布式集群部署(单namenode节点)

    Hadoop分布式集群部署 系统系统环境: OS: CentOS 6.8 内存:2G CPU:1核 Software:jdk-8u151-linux-x64.rpm hadoop-2.7.4.tar. ...

  2. Hadoop教程(五)Hadoop分布式集群部署安装

    Hadoop教程(五)Hadoop分布式集群部署安装 1 Hadoop分布式集群部署安装 在hadoop2.0中通常由两个NameNode组成,一个处于active状态,还有一个处于standby状态 ...

  3. hadoop分布式集群部署①

     Linux系统的安装和配置.(在VM虚拟机上) 一:安装虚拟机VMware Workstation 14 Pro 以上,虚拟机软件安装完成. 二:创建虚拟机. 三:安装CentOS系统 (1)上面步 ...

  4. 大数据平台搭建-hadoop/hbase集群的搭建

    版本要求 java 版本:1.8.*(1.8.0_60) 下载地址:http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downl ...

  5. Hadoop实战:Hadoop分布式集群部署(一)

    一.系统参数优化配置 1.1 系统内核参数优化配置 修改文件/etc/sysctl.conf,使用sysctl -p命令即时生效.   1 2 3 4 5 6 7 8 9 10 11 12 13 14 ...

  6. 大数据【三】YARN集群部署

    一 概述 YARN是一个资源管理.任务调度的框架,采用master/slave架构,主要包含三大模块:ResourceManager(RM).NodeManager(NM).ApplicationMa ...

  7. Hadoop分布式集群部署

    环境准备 IP HOSTNAME SYSTEM 192.168.131.129 hadoop-master CentOS 7.6 192.168.131.135 hadoop-slave1 CentO ...

  8. CentOS6安装各种大数据软件 第四章:Hadoop分布式集群配置

    相关文章链接 CentOS6安装各种大数据软件 第一章:各个软件版本介绍 CentOS6安装各种大数据软件 第二章:Linux各个软件启动命令 CentOS6安装各种大数据软件 第三章:Linux基础 ...

  9. 基于Hadoop分布式集群YARN模式下的TensorFlowOnSpark平台搭建

    1. 介绍 在过去几年中,神经网络已经有了很壮观的进展,现在他们几乎已经是图像识别和自动翻译领域中最强者[1].为了从海量数据中获得洞察力,需要部署分布式深度学习.现有的DL框架通常需要为深度学习设置 ...

随机推荐

  1. phpcms推荐位数据库字段详解

  2. Angular - - filter 过滤器

    Filter Ng里的过滤器. currency:把一个数字格式化成货币模式(如$1,234.56).当没有提供任何货币符号时,默认使用当前区域的符号. 使用: HTML:{{ currency_ex ...

  3. emmet学习笔记

    Emment语法使用:按table键的结果1.初始化:(HTML文档需要包含一些固定的标签,比如<html>.<head>.<body>等). html:或! :用 ...

  4. BNU Online Judge-34978-汉诺塔

    题目链接 http://www.bnuoj.com/bnuoj/problem_show.php?pid=34978 这题在比赛时AC了不过那时是根据测试数据  抱着来试一下的想法,没想就AC了,其实 ...

  5. Mybatis增加对象属性不增加mapper.xml的情况

    Mybatis增加对象属性不增加mapper.xml的情况: 只增加Model 对象的属性,在查询语句中返回相同名称的字段,但是在mapper中的 resultMap上面不进行新增字段的增加,查询结果 ...

  6. 工厂模式在JS中的实践

    .mytitle { background: #2B6695; color: white; font-family: "微软雅黑", "宋体", "黑 ...

  7. ASP.NET MVC with Entity Framework and CSS一书翻译系列文章之第六章:管理产品图片——多对多关系(上篇)

    在这章中,我们将学习如何创建一个管理图片的新实体,如何使用HTML表单上传图片文件,并使用多对多关系将它们和产品关联起来,如何将图片存储在文件系统中.在这章中,我们还会学习更加复杂的异常处理,如何向模 ...

  8. C# 6 与 .NET Core 1.0 高级编程 - 39 章 Windows 服务(下)

    译文,个人原创,转载请注明出处(C# 6 与 .NET Core 1.0 高级编程 - 39 章 Windows 服务(下)),不对的地方欢迎指出与交流. 章节出自<Professional C ...

  9. Baidu图表插件--Eharts使用(柱状图)

    官网链接:http://echarts.baidu.com/index.html 官网的demo,api都很详细:我就分享下我的学习步骤 首先定义一个显示图标的区域: <div id=" ...

  10. Codeforces 506E Mr. Kitayuta's Gift (矩阵乘法,动态规划)

    描述: 给出一个单词,在单词中插入若干字符使其为回文串,求回文串的个数(|s|<=200,n<=10^9) 这道题超神奇,不可多得的一道好题 首先可以搞出一个dp[l][r][i]表示回文 ...