1. 安装JDK

  JDK安装包复制到/opt文件夹

  cd /opt

  rpm -ivh jdk-8u121-linux-x64.rpm

  vim /etc/profile

  增加 JAVA_HOME=/usr/java/default

  PATH=$JAVA_HOME/bin:$PATH

  source /etc/profile

  验证 echo $JAVA_HOME

  java -version

2. 配置SSH(免密码登录),Hadoop集群间登录使用。

  a> 在客户端进行如下操作:

    ssh-keygen -t rsa  生成密钥

    cat id_rsa.pub >> authorized_keys  客户端注册公钥

    cat id_rsa.pub | ssh root@bigdata.mysql "cat - >> ~/.ssh/authorized_keys"  注册公钥到服务器

  b> 在服务器段进行:  

    chmod 700 -R .ssh

    chmod 600 .ssh/authorized_keys

  或者:在客户端直接 ssh-copy-id ~/.ssh/id_rsa.pub root@bigdata.mysql

  c> 测试

    在客户端:ssh bigdata.mysql

3. Hadoop集群搭建-Master

  tar zxf hadoop-2.7.3.tar.gz

  vim /etc/profile

  增加 HADOOP_HOME=/opt/hadoop-2.7.3

  PATH增加$HADOOP_HOME/bin:段

  source /etc/profile

  检查 echo $HADOOP_HOME

  cd /opt/hadoop-2.7.3/etc/hadoop/

  配置:core-site.xml; hdfs-site.xml; yarn-site.xml; mapred-site.xml; slaves

  core-site.xml

<property>
<name>fs.default.name</name>
<value>hdfs://bigdata.hadoop.master:9000</value>
</property> <property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop-2.7.3/current/tmp</value>
</property> <property>
<name>fs.trash.interval</name>
<value>4320</value>
</property>

  mkdir -p /opt/hadoop-2.7.3/current/tmp

  hdfs-site.xml

<property>
<name>dfs.namenode.name.dir</name>
<value>/opt/hadoop-2.7.3/current/data</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/opt/hadoop-2.7.3/current/name</value>
</property> <property>
<name>dfs.datanode.data.dir</name>
<value>/opt/hadoop-2.7.3/current/data</value>
</property> <property>
<name>dfs.replication</name>
<value>3</value>
</property> <property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property> <property>
<name>dfs.permission.superusergroup</name>
<value>staff</value>
</property> <property>
<name>dfs.permission.enabled</name>
<value>false</value>
</property>

  mkdir -p /opt/hadoop-2.7.3/current/name

  mkdir -p /opt/hadoop-2.7.3/current/data

  yarn-site.xml

<property>
<name>yarn.resourcemanager.hostname</name>
<value>bigdata.hadoop.master</value>
</property> <property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property> <property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property> <property>
<name>yarn.resourcemanager.address</name>
<value>bigdata.hadoop.master:18040</value>
</property> <property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>bigdata.haddop.master:18030</value>
</property> <property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>bigdata.hadoop.master:18025</value>
</property> <property>
<name>yarn.resource.manager.admin.address</name>
<value>bigdata.hadoop.master:18141</value>
</property> <property>
<name>yarn.resourcemanager.webapp.address</name>
<value>bigdata.hadoop.master:18088</value>
</property> <property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property> <property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>86400</value>
</property> <property>
<name>yarn.log-aggregation.retain-check-interval-seconds</name>
<value>86400</value>
</property> <property>
<name>yarn.nodemanager.remote-app-log-dir</name>
<value>/tmp/logs</value>
</property> <property>
<name>yarn.nodemanager.remote-app-log-dir-suffix</name>
<value>logs</value>
</property>

  mapred-site.xml

  cp mapred-site.xml.template mapred-site.xml

  vim mapred-site.xml

 <property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property> <property>
<name>mapreduce.jobtracker.http.address</name>
<value>bigdata.hadoop.master:50030</value>
</property> <property>
<name>mapreduce.jobhistory.address</name>
<value>bigdata.hadoop.master:10020</value>
</property> <property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>bigdata.hadoop.master:19888</value>
</property> <property>
<name>mapreduce.jobhistory.done-dir</name>
<value>/jobhistory/done</value>
</property> <property>
<name>mapreduce.intermediate-done-dir</name>
<value>/jobhistory/done_intermediate</value>
</propery> <property>
<name>mapreduce.job.ubertask.enable</name>
<value>true</value>
</property>

  slaves

  bigdata.hadoop.master

  bigdata.hadoop.slave1

  bigdata.hadoop.slave2

  bigdata.hadoop.slave3

  vim /opt/hadoop-2.7.3/etc/hadoop/hadoop-env.sh

  export JAVA_HOME=/usr/java/default

4.  创建Slaves虚拟机

   bigdata.hadoop.slave1

  bigdata.hadoop.slave2

  bigdata.hadoop.slave3

5. SSH免密码登录

  在bigdata.hadoop.master上执行:

  ssh-keygen -t rsa  --生成密钥公钥,一路回车

  ssh-copy-id -i ~/.ssh/id_rsa.pub root@bigdata.hadoop.slave1

  ssh-copy-id -i ~/.ssh/id_rsa.pub root@bigdata.hadoop.slave2

  ssh-copy-id -i ~/.ssh/id_rsa.pub root@bigdata.hadoop.slave2

  cat ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys

  测试免密码登录

  ssh bigdata.hadoop.slave1, ssh bigdata.hadoop.slave2, ssh bigdata.hadoop.slave3, ssh bigdata.hadoop.master

6. 关闭防火墙和SELIXNUX

  service iptables stop  --临时关闭防火墙

  chkconfig iptables off  --永久关闭

  chkconfig --list|grep iptables

  vi /etc/sysconfig/selinux

  SELINUX=disabled

  setenforce 0

  getenforce

7. Copy文件到虚拟机

  安装scp命令:yum install openssh-clients

  scp -r /opt/hadoop-2.7.3 root@bigdata.hadoop.slave1:/opt/

  配置Slaves的etc/profile

8. 格式化Hadoop

  在Master上执行: hdfs namenode -format

9. 启动Hadoop

  在Master上执行:/opt/hadoop-2.7.3/sbi/start-all.sh

10. 查看Hadoop状态

  在Master执行:JPS

    NodeManager;  NameNode;  SecondaryNameNode;  ResourceManager;  DataNode

  在Slaves上执行:JPS

    NodeManager;  DataNode;

  在外部访问:http://bigdata.hadoop.master:50070 和 http://bigdata.hadoop.master:18088

  打开ServiceHistoryServer

  /opt/hadoop-2.7.3/sbin/mr-jobhistory-daemon.sh start historyserver

  在外部访问:http://bigdata.hadoop.master:19888

11. 执行Map-Reduce任务

  词频统计

  1. 将1个txt文本上传到hdfs

    hdfs dfs -put testfile.txt /task1/input/testfile

  2. 执行Map-Reduce任务

    hadoop jar /opt/hadoop-2.7.3/share/hadoop/mareduce/hadoop-mapreduce-examples-2.7.3 jar wordcound /task1/input/testfile /task1/output

  3. 查看输出结果

    hdfs dfs -cat /task1/output/part-r-00000

  

  

BG.Hadoop.Master的更多相关文章

  1. Hadoop,master和slave简单的分布式搭建

    搭建过程中配置免密钥登录为了以后方便使用 [提醒]安装Hadoop中会遇到新建文件夹,配置路径等问题,这个不能生搬硬套,要使用自己配置的路径,灵活使用. Hadoop的部署配置文件在http://bl ...

  2. Hadoop分布式系统的安装部署

    1.关于虚拟机的复制 新建一台虚拟机,系统为CentOS7,再克隆两台,组成一个三台机器的小集群.正常情况下一般需要五台机器(一个Name节点,一个SecondName节点,三个Data节点.) 此外 ...

  3. 安装hadoop+zookeeper ha

    安装hadoop+zookeeper ha 前期工作配置好网络和主机名和关闭防火墙 chkconfig iptables off //关闭防火墙 1.安装好java并配置好相关变量 (/etc/pro ...

  4. Hadoop学习笔记—6.Hadoop Eclipse插件的使用

    开篇:Hadoop是一个强大的并行软件开发框架,它可以让任务在分布式集群上并行处理,从而提高执行效率.但是,它也有一些缺点,如编码.调试Hadoop程序的难度较大,这样的缺点直接导致开发人员入门门槛高 ...

  5. HADOOP安装指南-Ubuntu15.10和hadoop2.7.2

    Ubuntu15.10中安装hadoop2.7.2安装手册 太初 目录 1.      Hadoop单点模式... 2 1.1        安装步骤... 2 0.环境和版本... 2 1.在ubu ...

  6. 大数据系列(4)——Hadoop集群VSFTP和SecureCRT安装配置

    前言 经过前三篇文章的介绍,已经通过VMware安装了Hadoop的集群环境,当然,我相信安装的过程肯定遇到或多或少的问题,这些都需要自己解决,解决的过程就是学习的过程,本篇的来介绍几个Hadoop环 ...

  7. hadoop伪分布式平台搭建(centos 6.3)

    最近要写一个数据量较大的程序,所以想搭建一个hbase平台试试.搭建hbase伪分布式平台,需要先搭建hadoop平台.本文主要介绍伪分布式平台搭建过程. 目录: 一.前言 二.环境搭建 三.命令测试 ...

  8. 搭建ubuntu14.04的hadoop集群【docker容器充当服务器】

    首先弄出来装有hadoop.java.ssh.vim的镜像起名badboyf/hadoop.做镜像有两种方法,一种是用Dockerfile来生成一个镜像,一种是基于ubuntu14.04的基础镜像生成 ...

  9. Hadoop安装及配置

    一.系统及软件环境 1.操作系统 CentOS release 6.5 (Final) 内核版本:2.6.32-431.el6.x86_64 master.fansik.com:192.168.83. ...

随机推荐

  1. go语言最快最好运用最广的web框架比较(大多数人不了解的特性)

    令人敬畏的Web框架 如果你为自己设计一个小应用程序,你可能不需要一个Web框架,但如果你正在进行生产,那么你肯定需要一个,一个好的应用程序. 虽然您认为自己拥有必要的知识和经验,但您是否愿意自行编写 ...

  2. C#计算机性能参数

    Process proc = Process.GetCurrentProcess(); //string info = "内存:" + (Environment.WorkingSe ...

  3. 【cocos2d-x 仙凡奇缘-网游研发(2) 角色换线系统】

    转载请注明出处:http://www.cnblogs.com/zisou/p/xianfan01.html 做一款游戏就先得制作好策划文档,和基本的人物世界构架的设计,然后架空在这样一个虚拟的世界中每 ...

  4. Flask基础-基础实例

    1. 10行代码的迷你程序 flask项目 from flask import Flask app = Flask(__name__) @app.route("/index") d ...

  5. Zookeeper原理分析之存储结构TxnLog

    Zookeeper事物日志文件用于记录事物操作,如添加,删除节点等等,都会在事务日志中记录一条记录.下面我们就详细分析一下txnLog事务日志文件. txnLog事务日志文件文件由三部分组成: 日志文 ...

  6. webpack快速入门——处理HTML中的图片

    在webpack中是不喜欢你使用标签<img>来引入图片的,但是我们作前端的人特别热衷于这种写法, 国人也为此开发了一个:html-withimg-loader.他可以很好的处理我们在ht ...

  7. 使用git时出现Please make sure you have the correct access rights and the repository exists.问题已解决。

    使用git时,出现Please make sure you have the correct access rights and the repository exists.问题已解决. 今天我在使用 ...

  8. Ubuntu Cannot run program "../SDK/build-tools/xxx/aapt": erro = 2 No such file or directory

    64位ubuntu Android Studio  Gradle编译时出现如下报错: java.io.IOException: Cannot run program "/home/king/ ...

  9. 使用R进行分组统计

    分组统计数据集是很常见的需求,R中也有相应的包支持数据集的分组统计.自己尝试了写了段R代码来完成分组统计数据集,支持公式,感觉用起来还算方便.代码分享在文章最后. 使用方式: step 1: sour ...

  10. RHCE 学习结构

    本文内容为本站的 blog 链接 第一章   安装初体验 第二章   访问系统 2.1 基于图形化界面访问 2.2 基于文本访问 2.3 用户管理 第三章   文件系统 3.1  Linux 文件系统 ...