hadoop2.6平台搭建

一、条件准备

软件条件:

Ubuntu14.04 64位操作系统,jdk1.7 64位,Hadoop 2.6.0

硬件条件

1台主节点机器,配置:cpu 8个,内存32G,硬盘200G

5台从节点机器,配置均为:cpu 4个,内存16G,硬盘200G

各个节点IP如下

服务器名字

Ip地址

备注(为方便操作将hostname改为如下)

Hd-Name Node

192.168.0.10

master

Hd-Data Node 1

192.168.0.16

slave1

Hd-Data Node 2

192.168.0.12

slave2

Hd-Data Node 3

192.168.0.18

slave3

Hd-Data Node 4

192.168.0.13

slave4

Hd-Data Node 5

192.168.0.14

slave5

(1)以上机器的登录名密码均为:root  2015

  (2)由于只有一台集群外的机器绑定公网,所以通过它,才能访问这6个节点。公网ip10.120.21.116 用户名:root 密码:2015

二、搭建过程:

1》修改主机名字

通过xshell,远程登录主机10.120.21.116,输入用户名:root,密码2015.登录成功后。执行命令:ssh 192.168.0.10。进入Hd-Name Node机器。然后执行命令:

vi  /etc/hosts 进入文件编辑,加入以下内容:

192.168.0.10  master

192.168.0.16   slave1

192.168.0.12  slave2

192.168.0.18  slave3

192.168.0.13  slave4

192.168.0.14  slave5

然后保存退出。然后继续执行命令:

vi  /etc/hostname 编辑主机名字为:master

接着执行命令:hostname  master。

分别执行命令远程拷贝hosts文件到各个节点,覆盖掉本身的hosts文件。

scp  –r  /etc/hosts  root@192.168.0.16:/etc/

scp  –r  /etc/hosts  root@192.168.0.12:/etc/

scp  –r  /etc/hosts  root@192.168.0.18:/etc/

scp  –r  /etc/hosts  root@192.168.0.13:/etc/

scp  –r  /etc/hosts  root@192.168.0.14:/etc/

然后执行ssh 192.168.0.** 分别登录到各个子节点,修改他们的hostname。进入hostname文件。名字分别改成,slave1,slave2,slave3,slave4,slave5.保存退出。然后分别执行命令:hostname slave1 ,hostname slave2,…这样可以ssh master 这样登录了。

注意:1.如果ssh命令不能用,可能机器本身没有ssh,需要安装:执行命令:

apt-get install ssh。

2.确保各个节点能相互ping通,如果ping不通,查看下防火墙是否关闭。

2》设置节点间的远程无密码登录

执行命令:ssh master 切换到主节点。执行命令:

  1. ssh-keygen –t rsa ,进入目录/root/.ssh/,发现多了三文件:authorized_keys,id_rsa,id_rsa.pub(copy rsa.pub,然后加入授权列表文件:authorized_keys,cat  rsa.pub >> auhorized.key)
  2. 执行命令cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys.
  3. 满足authorized_keys的权限要严格按照 权限 -rw-------
  4. 验证执行:ssh  localhost,查看本节点是否可以无密码登录。

将授权文件拷贝到其他节点,执行命令:

scp authorized_keys root@slave1:~/.ssh/

可选s

scp id_rsa root@slave1:~/.ssh/

scp id_rsa.pub root@slave1:~/.ssh/,同样其他节点也执行这样的操作。执行完毕后,测试一下。节点之间能否相互之间无密码登录。

 

3拷贝文件

通过WinSCP软件登录主机10.120.21.116,输入用户名:root,密码2015。实现本地机器与远程机器的文件共享。将本机下的:hadoop2.6和jdk 1.7复制到主机10.120.21.116机器的 /usr/local/目录下。

通过xshell,远程登录主机10.120.21.116,输入用户名:root,密码2015.登录成功后,执然后将10.120.21.116下/usr/local/下的文件:hadoop2.6和jdk1.7安装包复制到,master机器上:/usr/local目录下。

执行命令:scp  /usr/local/Hadoop-2.6.0-x64.tar.gz  root@192.168.0.10:/usr/local/

scp  /usr/local/jdk-7u79-linux-x64.gz  root@192.168.0.10:/usr/local/

4》解压文件

执行:ssh 192.168.0.10,登录到master机器。

切换到目录:cd /usr/local 。执行命令:盘

tar -xvzf hadoop-2.6.0-x64.tar.gz

tar –xvzf jdk-7u79-linux-x64.gz。将两个文件解压。执行重命名命令:

mv hadoop-2.6.0-x64 hadoop

mv jdk-7u79-linux-x64 jdk

在/usr/local/hadoop下创建文件目

mkdir tmp

mkdir dfs/data

mkdir dfs/name

5》配置hadoop文件

进入目录:/usr/local/hadoop/etc/hadoop/

配置文件:hadoop-env.sh,打开它修改JAVA_HOME值为(export JAVA_HOME=/usr/local/jdk)

配置文件:yarn-env.sh,打开它修改JAVA_HOME值为(export JAVA_HOME=/usr/local/jdk)

配置文件:slaves,打开它写入内容:

slave1

slave2

slave3

slave4

slave5

配置文件:core-site.xml

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://master:8020</value>

</property>

<property>

<name>io.file.buffer.size</name>

<value>131072</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>file:/usr/local/hadoop/tmp</value>

<description>Abase for other temporary   directories.</description>

</property>

<property>

<name>hadoop.proxyuser.root.hosts</name>

<value>*</value>

</property>

<property>

<name>hadoop.proxyuser.root.groups</name>

<value>*</value>

</property>

</configuration>

配置文件:hdfs-site.xml

<configuration>

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>master:9001</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>file:/usr/local/hadoop/dfs/name</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>file:/usr/local/hadoop/dfs/data</value>

</property>

<property>

<name>dfs.replication</name>

<value>3</value>

</property>

<property>

<name>dfs.webhdfs.enabled</name>

<value>true</value>

</property>

</configuration>

配置文件:mapred-site.xml

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

<property>

<name>mapreduce.jobhistory.address</name>

<value>master:10020</value>

</property>

<property>

<name>mapreduce.jobhistory.webapp.address</name>

<value>master:19888</value>

</property>

</configuration>

配置文件:yarn-site.xml

<configuration>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

<value>org.apache.hadoop.mapred.ShuffleHandler</value>

</property>

<property>

<name>yarn.resourcemanager.address</name>

<value>master:8032</value>

</property>

<property>

<name>yarn.resourcemanager.scheduler.address</name>

<value>master:8030</value>

</property>

<property>

<name>yarn.resourcemanager.resource-tracker.address</name>

<value>master:8031</value>

</property>

<property>

<name>yarn.resourcemanager.admin.address</name>

<value>master:8033</value>

</property>

<property>

<name>yarn.resourcemanager.webapp.address</name>

<value>master:8088</value>

</property>

</configuration>

注:红色部分需要自己根据实际情况修改

6hadoopjdk文件夹的复制

将mater节点。/usr/local/hadoop和/usr/local/jdk文件目录远程复制到其他节点,执行命令:

scp –r /usr/local/hadoop  root@slave1:/usr/local/

scp –r /usr/local/jdk  root@slave1:/usr/local/

…其它节点同样复制。

7》配置环境变量

在master,slave1,slave2,slave3,slave4,slave5,配置环境变量。在/etc/profile目录下添加:

export PATH=$PATH:/usr/local/jdk/bin:/usr/local/jdk/jre/bin:/usr/local/hadoop/bin:/usr/local/hadoop/sbin

保存退出,执行命令:source /etc/profile让其立即生效。

8》验证与运行ssh

执行命令:ssh master

格式化namenode节点,执行命令:hadoop namenode –format

启动hadoop,执行命令:start-all.sh

在master节点和其他从节点下执行命令:jps。查看相关进程是否启动:

在/usr/local/hadoop/share/hadoop/mapreduce目录下执行测试程序:

jadoop jar hadoop-mapreduce-exmaple-2.6.0.jar pi 2 19 ,观察测试结果。至此所有搭建过程完毕

原生态hadoop2.6平台搭建的更多相关文章

  1. 基于原生态Hadoop2.6 HA集群环境的搭建

    hadoop2.6  HA平台搭建   一.条件准备 软件条件: Ubuntu14.04 64位操作系统, jdk1.7 64位,Hadoop 2.6.0,  zookeeper 3.4.6 硬件条件 ...

  2. hadoop伪分布式平台搭建(centos 6.3)

    最近要写一个数据量较大的程序,所以想搭建一个hbase平台试试.搭建hbase伪分布式平台,需要先搭建hadoop平台.本文主要介绍伪分布式平台搭建过程. 目录: 一.前言 二.环境搭建 三.命令测试 ...

  3. Storm on Yarn :原理分析+平台搭建

    Storm on YARN: Storm on YARN被视为大规模Web应用与传统企业应用之间的桥梁.它将Storm事件处理平台与YARN(Yet Another Resource Negotiat ...

  4. 大数据平台搭建(hadoop+spark)

    大数据平台搭建(hadoop+spark) 一.基本信息 1. 服务器基本信息 主机名 ip地址 安装服务 spark-master 172.16.200.81 jdk.hadoop.spark.sc ...

  5. 【iOS】Jenkins Gitlab持续集成打包平台搭建

    Jenkins Gitlab持续集成打包平台搭建 SkySeraph July. 18th 2016 Email:skyseraph00@163.com 更多精彩请直接访问SkySeraph个人站点: ...

  6. LNMP平台搭建---MySQL安装篇

    在前两篇中,安装了一个基本的Web服务器,但是只能提供静态网页查看,要做成动态网站,就必须要数据库或其他编程语言支持了,这里先介绍MySQL数据库的安装. MySQL是一个开源的数据库,在互联网行业应 ...

  7. 基于Moodle的IT课程辅助教育平台搭建

    基于Moodle的IT课程辅助教育平台搭建 Moodle是一个开源课程管理系统(CMS),也被称为学习管理系统(LMS)或虚拟学习环境(VLE).它已成为深受世界各地教育工作者喜爱的一种为学生建立网上 ...

  8. [Openwrt 项目开发笔记]:Openwrt平台搭建(一)

    [Openwrt项目开发笔记]系列文章传送门:http://www.cnblogs.com/double-win/p/3888399.html 正文: 最近开始着手进行Openwrt平台的物联网网关设 ...

  9. LNMP平台搭建---Nginx安装篇

    在上一篇博文<LNMP平台搭建---Linux系统安装篇>中,我们安装了CentOS版本的Linux操作系统,现在,我们来安装一个Web服务器,大标题写着LNMP,其中的N就是Nginx, ...

随机推荐

  1. CentOS7-扩容挂载磁盘

    1.1查看新磁盘,可以看到/dev/sdb是新的未挂载的磁盘: [root@localhost ~]# fdisk -l 1.2硬盘分区 ,进入fdisk模式 进入fdisk模式 [root@loca ...

  2. DataType--类型基础

    数据类型数据的定义在各种场合均不一样,数据的载体也不一样,数据的表现方式和传递方式也不一样,数据的处理方式也不一样,数据库不可能处理所有形式的数据,因此必须规范数据,按照类型划分和处理. 连续和离散( ...

  3. C语言编程学习开发的俄罗斯方块小游戏

    C语言是面向过程的,而C++是面向对象的 C和C++的区别: C是一个结构化语言,它的重点在于算法和数据结构.C程序的设计首要考虑的是如何通过一个过程,对输入(或环境条件)进行运算处理得到输出(或实现 ...

  4. 三、SpringBoot-application.properties配置文件和application.yml配置文件

    其实SpringBoot的配置文件有.properties和.yml两种形式,两种配置文件的效果类似,只不过是格式不同而已,孩儿们可以根据下面这几种张截图,通过对比端口号的配置,以及连接SQLServ ...

  5. luoguP2418 yyy loves OI IV

    https://www.luogu.org/problemnew/show/P2418 暴力 DP 做这题只有 30 分 考虑用线段树优化这个 DP 先处理一下整个房间都膜拜一个人的情况,然后将 1 ...

  6. webpack(二)解析es6并打包

    一.前言 ECMAScript 6(ES6)的发展速度非常之快,但现代浏览器对ES6新特性支持度不高,所以要想在浏览器中直接使用ES6的新特性就得借助别的工具来实现.Babel是一个广泛使用的转码器, ...

  7. elasticsearch head 连接不到elasticsearch

    配置好head后看到没有正常连接到elasticsearch.  重启后效果:

  8. python安装环境配置、python模块添加、sublime text编辑器配置

    前提: 本文讲述的是  windows环境 python相应的安装配置. 进入官网找安装包,官网地址如下:https://www.python.org/downloads/ 找到相应2.7.x或3.x ...

  9. 1076 Wifi密码 (15 分)

    // 思路是网上以一位大神的,特简单直接采用字符串,判断长度,还有最后一个元素是否T,便可通过ASCll输出数字:#include <iostream> #include <stri ...

  10. 24个常用 Python 实现

    24个常用 Python 实现 1.冒泡排序 lis = [56,12,1,8,354,10,100,34,56,7,23,456,234,-58] def sortport(): for i in ...