待完善

Hadoop2.6.0部署与应用

一、    环境准备

硬件:3台虚拟机

内存:至少512MB

硬盘:至少20G

操作系统:rhel6.4  64位 最小化安装

主机名

IP(局域网)

描述

Master

192.168.111.5

hdfs主节点,yarn主节点

slaves1

192.168.111.6

hdfs数据节点,yarn计算节点

slaves2

192.168.111.7

hdfs数据节点,yarn计算节点

(1)     安装openssh

在每台虚拟机上安装openssh,最小化虚拟机默认没有安装,自行配置yum安装openssh。3台虚拟机之间需要相互ssh登录

[root@master ~]#yum install openssh* -y

(2)     配置主机名和IP

修改主机名,编辑/etc/sysconfig/network文件

[root@master ~]#vi /etc/sysconfig/network

将主节点计算机名改为master

hostname=master

其他2台类推

hostname=slaves1

hostname=slaves2

然后修改3台虚拟机的IP为在同一个网段的静态IP

[root@master ~]#vi /etc/sysconfig/network-scripts/ifcfg-eth0

内容分别如下

IPADDR=192.168.111.5

IPADDR=192.168.111.6

IPADDR=192.168.111.7

配置hosts文件,方便访问,不用记IP

[root@master ~]# vi /etc/hosts

192.168.111.5                 hadoop-master

192.168.111.6                 hadoop-slaves1

192.168.111.7                 Hadoop-slaves2

然后把/etc/hosts文件分发到其他2台虚拟机上

[root@master ~]# scp /etc/hosts slaves1:/etc/

[root@master ~]# scp /etc/hosts slaves2:/etc/

二、    安装JDK

可以到oracle官网下载jdk

http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

http://download.oracle.com/otn-pub/java/jdk/8u101-b13/jdk-8u101-linux-x64.tar.gz

在每台虚拟机上安装JDK,解压tar.gz包,,把解压的文件夹jdk1.8.0_31移到/usr/java下

[root@master ~]#tar zxvf jdk-8u31-linux-x64.gz

[root@master ~]#mkdir /usr/java

[root@master ~]#mv jdk1.8.0_31 /usr/java

配置环境变量

[root@master ~]#vi /etc/profile

将以下内容添加到/etc/profile的最后面

export JAVA_HOME=/usr/java/jdk1.8.0_31

export PATH=$PATH:$JAVA_HOME/bin

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export JAVA_HOME PATH CLASSPATH

使环境变量生效并验证是否安装成功

[root@master ~]#source /etc/profile

[root@master ~]#java -versison

三、    建立ssh无密登录

3台虚拟机建立专属用户hadoop并为其建立相互信任关系,使其方便自动登录运行命令,密码统一使用hadoop

[root@master ~]#useradd hadoop

[root@master ~]#passwd hadoop

[root@master ~]#su - hadoop

[hadoop@master ~]$Ssh-keygen -t rsa

一直回车就可以生成公钥和私钥,把3台虚拟机的公钥id_rsa.pub文件合并到一个authorized_keys文件上,然后分发到3台虚拟机上,改authorized_keys文件为600权限,使其可以相互登录

在slaves1和slaves2上操作,slaves2对应换编号

[hadoop@slaves1 ~]$cd .ssh

[hadoop@slaves1 ~]$scp id_rsa.pub master:~/.ssh/id_rsa.pub1

在master上操作

[hadoop@master ~]cd .ssh

[hadoop@master ~]cat id_rsa.pub >> authorized_keys

[hadoop@master ~]cat id_rsa.pub1 >> authorized_keys

[hadoop@master ~]cat id_rsa.pub2 >> authorized_keys

[hadoop@master ~]cat authorized_keys  #查看是否操作正确

[hadoop@master ~]scp authorized_keys hadoop-master:~/.ssh/

[hadoop@master ~]chmod 600 ~/.ssh/authorized_keys

四、    安装hadoop

在主节点上操作,解压hadoop-2.6.0.tar.gz到hadoop用户家目录,编辑hadoop的配置文件,用hadoop用户操作

Su hadoop

Tar zxvf hadoop-2.6.0.tar.gz

修改hadoop-env.sh和yarn-env.sh文件的JAVA_HOME来指定JDK的路径

vi hadoop-2.6.0/etc/hadoop/hadoop-env.sh

第25行  export JAVA_HOME=/usr/java/jdk1.8.0_31

vi hadoop-2.6.0/etc/hadoop/hadoop-env.sh

第23行  export JAVA_HOME=/usr/java/jdk1.8.0_31

编辑从节点列表文件slaves

vi slaves

指定两台从节点

Hadoop-slvaes1

hadoop-slaves2

编辑core-site.xml,指定主节点的地址和端口

Cd hadoop-2.6.0/etc/hadoop

vi core-site.xml

<configuration>

<property>

  <name>fs.defaultFS</name>

  <value>hdfs://master:9000</value>

 </property>

</configuration>

复制mapred-site.xml.template为mapred-site.xml,指定mapreduce工作方式

cd hadoop-2.6.0/etc/hadoop

vi mapred-site.xml

<configuration>

<property>

   <name>mapreduce.framework.name</name>

   <value>yarn</value>

 </property>

</configuration>

编辑yarn-site.xml,指定yran的主节点和端口

vi yarn-site.xml

<configuration>

<!-- Site specific YARN configuration properties -->

<property>

   <name>yarn.nodemanager.aux-services</name>

   <value>mapreduce_shuffle</value>

  </property>

  <property>

   <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

   <value>org.apache.hadoop.mapred.ShuffleHandler</value>

  </property>

  <property>

   <name>yarn.resourcemanager.address</name>

   <value>master:8032</value>

  </property>

  <property>

   <name>yarn.resourcemanager.scheduler.address</name>

   <value>master:8030</value>

  </property>

  <property>

   <name>yarn.resourcemanager.resource-tracker.address</name>

   <value>master:8035</value>

  </property>

  <property>

   <name>yarn.resourcemanager.admin.address</name>

   <value>master:8033</value>

  </property>

  <property>

   <name>yarn.resourcemanager.webapp.address</name>

   <value>master:8088</value>

  </property>

</configuration>

将hadoop-2.6.0文件夹分发到其他2台虚拟机上

Scp -r hadoop-2.6.0 hadoop-slaves1:~

Scp -r hadoop-2.6.0 hadoop-slaves2:~

编辑环境变量

Vi .baserc

HADOOP_HOME=/home/hadoop/hadoop-2.6.0
PATH=$PATH:$HADOOP_HOME/bin
Export HADOOP_HOME PATH

格式化分布式文件系统

Hadoop namenode -fotmat

在主节点启动

hadoop-2.6.0/sbin/start-all.sh

打开浏览器http://192.168.111.5:8088

如果成功应该看到如下效果

打开浏览器http://192.168.111.5:50070

如果成功可以看到如下效果

五、    运行测试

[Big Data]hadoop分布式系统在Linux系统安装的更多相关文章

  1. hadoop伪分布式环境搭建之linux系统安装教程

    本篇文章是接上一篇<超详细hadoop虚拟机安装教程(附图文步骤)>,上一篇有人问怎么没写hadoop安装.在文章开头就已经说明了,hadoop安装会在后面写到,因为整个系列的文章涉及到每 ...

  2. LNMP平台搭建---Linux系统安装篇

    在互联网网站开发领域,有一个名词,大家一定不陌生,那就是LAMP,经典的Web服务器环境,由Linux+Apache+MySQL+PHP组成,,后来,一个名叫Nginx的Web服务器开源出来了,因其更 ...

  3. 从Linux系统安装到Web应用启动教程

    概述 本文讲述web应用服务器安装配置教程,其中包括:Linux系统安装,Mysql数据库安装配置,Redis安装配置,Tomcat安装配置,MongoDB安装配置,Linux JDK安装使用,Ngi ...

  4. 阿里云服务器Linux系统安装配置ElasticSearch搜索引擎

    近几篇ElasticSearch系列: 1.阿里云服务器Linux系统安装配置ElasticSearch搜索引擎 2.Linux系统中ElasticSearch搜索引擎安装配置Head插件 3.Ela ...

  5. linux系统安装(上)

    1.VMware虚拟机的软件应用 www.vmware.com 2.linux系统安装设置(分区为重点) 3.远程登录管理工具介绍centOS5.5 使用虚拟机的优点 1.不用分区 2.可以完成本机与 ...

  6. 1.Linux系统安装

    Linux系统安装系统分区(磁盘分区) 主要管理:文件和目录分类:主分区:最多有4个 扩展分区:1个扩展分区 和主分区最多4个 存放逻辑分区 逻辑分区:存放数据 格式化:高级格式化(逻辑格式化) 写入 ...

  7. Linux学习心得之 LVM管理与Linux系统安装

    作者:枫雪庭 出处:http://www.cnblogs.com/FengXueTing-px/ 欢迎转载 LVM管理与Linux系统安装 1.前言 2.LVM 简介与术语 3.LVM 使用 4.Li ...

  8. Linux系统安装时分区的选择(推荐)

    Linux系统安装时分区的选择(推荐)  出处:http://www.cnblogs.com/gylei/archive/2011/12/04/2275987.html 前言: 以前初识Linux时, ...

  9. Vmware安装与VMware下Linux系统安装

    源文件地址:http://www.cnblogs.com/lclq/p/5619271.html 1.下载安装VMware,我安装的是VMware 12.VMware从11开始不再支持32位系统,32 ...

随机推荐

  1. MySQL性能优化的最佳21条经验【转载】

    今天,数据库的操作越来越成为整个应用的性能瓶颈了,这点对于Web应用尤其明显.关于数据库的性能,这并不只是DBA才需要担心的事,而这更是我们程序员需要去关注的事情.当我们去设计数据库表结构,对操作数据 ...

  2. LNMP环境的安装配置

    0.安装必要的依赖软件 如果已经安装了可能会进行升级,版本完全一致则不会进行任何操作. yum -y install bzip2-devel curl-devel freetype-devel gcc ...

  3. CASE WHEN的两种格式

    CASE WHEN的两种格式 1.简单Case函数 CASE sex WHEN '1' THEN '男' WHEN '2' THEN '女' ELSE '其他' END 2.Case搜索函数 CASE ...

  4. ClickOnce发布注意的一些细节

    细节1.应用程序启动前检查更新: 步骤:主工程-右键属性-发布(页面)-按“更新”按钮-勾选“应用程序应该检查更新(T)”-选择“应用程序启动前(F)”,如下图: 细节二:ClickOnce发布时&q ...

  5. awk 用法小结

    简介 awk是一个强大的文本分析工具,相对于grep的查找,sed的编辑,awk在其对数据分析并生成报告时,显得尤为强大.简单来说awk就是把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分再 ...

  6. 【dfs 回溯】 zoj 1004

    题意:给出一个源字符串和一个目标字符串,打出所有符合stack操作的i,o串使得对于源字符串的操作能变为目标字符串 思路:搜索,回溯. 之前想过是不是队列,觉得不对那样bfs是求最优解了:也想过用结构 ...

  7. hashmap源码

    Java里各种基础容器的实现都是链表外加引用的形式.So,hashmap也不例外. 那小考虑下:hashmap是怎么产生的呢? 常用的两种数据结构数组和链表各有优劣,数组寻址容易,插入和删除困难:而链 ...

  8. TDK伪原创? 对matatags的研究总结

    /public_html/includes/modules/meta_tags.php 46行:switch ($_GET['main_page']) {这里面包括自定义页面index.php?mai ...

  9. JavaEE程序编码规范

    JavaEE程序编码规范 目   录 JAVA程序编码规范1 1变量的命名规则1 1.1常量(包含静态的)1 1.2类变量(静态变量)及实例变量1 1.3局部变量1 1.4参数2 1.5其它2 2方法 ...

  10. Vsftp配置都没有问题 连接不上 530 Login incorrect 解决方法

    客户端输入正确的用户名和密码之后,却一直显示:530 Login incorrectLogin Failed后来发现在etc下面有个pam.d文件夹进去打开vsftpd这个文件, 发现里面对之前的用户 ...