原生态hadoop2.6平台搭建
hadoop2.6平台搭建
一、条件准备
软件条件:
Ubuntu14.04 64位操作系统,jdk1.7 64位,Hadoop 2.6.0
硬件条件:
1台主节点机器,配置:cpu 8个,内存32G,硬盘200G
5台从节点机器,配置均为:cpu 4个,内存16G,硬盘200G
各个节点IP如下:
|
服务器名字 |
Ip地址 |
备注(为方便操作将hostname改为如下) |
|
Hd-Name Node |
192.168.0.10 |
master |
|
192.168.0.16 |
slave1 |
|
|
Hd-Data Node 2 |
192.168.0.12 |
slave2 |
|
Hd-Data Node 3 |
192.168.0.18 |
slave3 |
|
Hd-Data Node 4 |
192.168.0.13 |
slave4 |
|
Hd-Data Node 5 |
192.168.0.14 |
slave5 |
注(1)以上机器的登录名密码均为:root 2015
(2)由于只有一台集群外的机器绑定公网,所以通过它,才能访问这6个节点。公网ip:10.120.21.116 用户名:root 密码:2015
二、搭建过程:
1》修改主机名字
通过xshell,远程登录主机10.120.21.116,输入用户名:root,密码2015.登录成功后。执行命令:ssh 192.168.0.10。进入Hd-Name Node机器。然后执行命令:
vi /etc/hosts 进入文件编辑,加入以下内容:
192.168.0.10 master
192.168.0.16 slave1
192.168.0.12 slave2
192.168.0.18 slave3
192.168.0.13 slave4
192.168.0.14 slave5
然后保存退出。然后继续执行命令:
vi /etc/hostname 编辑主机名字为:master
接着执行命令:hostname master。
分别执行命令远程拷贝hosts文件到各个节点,覆盖掉本身的hosts文件。
scp –r /etc/hosts root@192.168.0.16:/etc/
scp –r /etc/hosts root@192.168.0.12:/etc/
scp –r /etc/hosts root@192.168.0.18:/etc/
scp –r /etc/hosts root@192.168.0.13:/etc/
scp –r /etc/hosts root@192.168.0.14:/etc/
然后执行ssh 192.168.0.** 分别登录到各个子节点,修改他们的hostname。进入hostname文件。名字分别改成,slave1,slave2,slave3,slave4,slave5.保存退出。然后分别执行命令:hostname slave1 ,hostname slave2,…这样可以ssh master 这样登录了。
注意:1.如果ssh命令不能用,可能机器本身没有ssh,需要安装:执行命令:
apt-get install ssh。
2.确保各个节点能相互ping通,如果ping不通,查看下防火墙是否关闭。
2》设置节点间的远程无密码登录
执行命令:ssh master 切换到主节点。执行命令:
- ssh-keygen –t rsa ,进入目录/root/.ssh/,发现多了三文件:authorized_keys,id_rsa,id_rsa.pub(copy rsa.pub,然后加入授权列表文件:authorized_keys,cat rsa.pub >> auhorized.key)
- 执行命令cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys.
- 满足authorized_keys的权限要严格按照 权限 -rw-------
- 验证执行:ssh localhost,查看本节点是否可以无密码登录。
将授权文件拷贝到其他节点,执行命令:
scp authorized_keys root@slave1:~/.ssh/
可选s
scp id_rsa root@slave1:~/.ssh/
scp id_rsa.pub root@slave1:~/.ssh/,同样其他节点也执行这样的操作。执行完毕后,测试一下。节点之间能否相互之间无密码登录。
3》拷贝文件
通过WinSCP软件,登录主机10.120.21.116,输入用户名:root,密码2015。实现本地机器与远程机器的文件共享。将本机下的:hadoop2.6和jdk 1.7复制到主机10.120.21.116机器的 /usr/local/目录下。
通过xshell,远程登录主机10.120.21.116,输入用户名:root,密码2015.登录成功后,执然后将10.120.21.116下/usr/local/下的文件:hadoop2.6和jdk1.7安装包复制到,master机器上:/usr/local目录下。
执行命令:scp /usr/local/Hadoop-2.6.0-x64.tar.gz root@192.168.0.10:/usr/local/
scp /usr/local/jdk-7u79-linux-x64.gz root@192.168.0.10:/usr/local/
4》解压文件
执行:ssh 192.168.0.10,登录到master机器。
切换到目录:cd /usr/local 。执行命令:盘
tar -xvzf hadoop-2.6.0-x64.tar.gz
tar –xvzf jdk-7u79-linux-x64.gz。将两个文件解压。执行重命名命令:
mv hadoop-2.6.0-x64 hadoop
mv jdk-7u79-linux-x64 jdk
在/usr/local/hadoop下创建文件目
mkdir tmp
mkdir dfs/data
mkdir dfs/name
5》配置hadoop文件
进入目录:/usr/local/hadoop/etc/hadoop/
配置文件:hadoop-env.sh,打开它修改JAVA_HOME值为(export JAVA_HOME=/usr/local/jdk)
配置文件:yarn-env.sh,打开它修改JAVA_HOME值为(export JAVA_HOME=/usr/local/jdk)
配置文件:slaves,打开它写入内容:
slave1
slave2
slave3
slave4
slave5
配置文件:core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:8020</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>131072</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/usr/local/hadoop/tmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>*</value>
</property>
</configuration>
配置文件:hdfs-site.xml
<configuration>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>master:9001</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/hadoop/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/local/hadoop/dfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
</configuration>
配置文件:mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>master:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>master:19888</value>
</property>
</configuration>
配置文件:yarn-site.xml
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:8031</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>master:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>master:8088</value>
</property>
</configuration>
注:红色部分需要自己根据实际情况修改
6》hadoop和jdk文件夹的复制
将mater节点。/usr/local/hadoop和/usr/local/jdk文件目录远程复制到其他节点,执行命令:
scp –r /usr/local/hadoop root@slave1:/usr/local/
scp –r /usr/local/jdk root@slave1:/usr/local/
…其它节点同样复制。
7》配置环境变量
在master,slave1,slave2,slave3,slave4,slave5,配置环境变量。在/etc/profile目录下添加:
export PATH=$PATH:/usr/local/jdk/bin:/usr/local/jdk/jre/bin:/usr/local/hadoop/bin:/usr/local/hadoop/sbin
保存退出,执行命令:source /etc/profile让其立即生效。
8》验证与运行ssh
执行命令:ssh master
格式化namenode节点,执行命令:hadoop namenode –format
启动hadoop,执行命令:start-all.sh
在master节点和其他从节点下执行命令:jps。查看相关进程是否启动:
在/usr/local/hadoop/share/hadoop/mapreduce目录下执行测试程序:
jadoop jar hadoop-mapreduce-exmaple-2.6.0.jar pi 2 19 ,观察测试结果。至此所有搭建过程完毕
原生态hadoop2.6平台搭建的更多相关文章
- 基于原生态Hadoop2.6 HA集群环境的搭建
hadoop2.6 HA平台搭建 一.条件准备 软件条件: Ubuntu14.04 64位操作系统, jdk1.7 64位,Hadoop 2.6.0, zookeeper 3.4.6 硬件条件 ...
- hadoop伪分布式平台搭建(centos 6.3)
最近要写一个数据量较大的程序,所以想搭建一个hbase平台试试.搭建hbase伪分布式平台,需要先搭建hadoop平台.本文主要介绍伪分布式平台搭建过程. 目录: 一.前言 二.环境搭建 三.命令测试 ...
- Storm on Yarn :原理分析+平台搭建
Storm on YARN: Storm on YARN被视为大规模Web应用与传统企业应用之间的桥梁.它将Storm事件处理平台与YARN(Yet Another Resource Negotiat ...
- 大数据平台搭建(hadoop+spark)
大数据平台搭建(hadoop+spark) 一.基本信息 1. 服务器基本信息 主机名 ip地址 安装服务 spark-master 172.16.200.81 jdk.hadoop.spark.sc ...
- 【iOS】Jenkins Gitlab持续集成打包平台搭建
Jenkins Gitlab持续集成打包平台搭建 SkySeraph July. 18th 2016 Email:skyseraph00@163.com 更多精彩请直接访问SkySeraph个人站点: ...
- LNMP平台搭建---MySQL安装篇
在前两篇中,安装了一个基本的Web服务器,但是只能提供静态网页查看,要做成动态网站,就必须要数据库或其他编程语言支持了,这里先介绍MySQL数据库的安装. MySQL是一个开源的数据库,在互联网行业应 ...
- 基于Moodle的IT课程辅助教育平台搭建
基于Moodle的IT课程辅助教育平台搭建 Moodle是一个开源课程管理系统(CMS),也被称为学习管理系统(LMS)或虚拟学习环境(VLE).它已成为深受世界各地教育工作者喜爱的一种为学生建立网上 ...
- [Openwrt 项目开发笔记]:Openwrt平台搭建(一)
[Openwrt项目开发笔记]系列文章传送门:http://www.cnblogs.com/double-win/p/3888399.html 正文: 最近开始着手进行Openwrt平台的物联网网关设 ...
- LNMP平台搭建---Nginx安装篇
在上一篇博文<LNMP平台搭建---Linux系统安装篇>中,我们安装了CentOS版本的Linux操作系统,现在,我们来安装一个Web服务器,大标题写着LNMP,其中的N就是Nginx, ...
随机推荐
- Redis主从服务部署
Redis__WindowsServer主从服务部署及调用实例 一.先谈谈单个Redis服务的安装 使用的redis是2.8.17版本,从官网下载解压缩后文件内容为: ...
- LibreOJ 6278 数列分块入门 2(分块)
题解:非常高妙的分块,每个块对应一个桶,桶内元素全部sort过,加值时,对于零散块O(sqrt(n))暴力修改,然后暴力重构桶.对于大块直接整块加.查询时对于非完整块O(sqrt(n))暴力遍历.对 ...
- 【转】快速开发移动医疗App!开源框架mHealthDroid
原文地址:http://www.csdn.net/article/2014-12-12/2823096-mHealhDroid mHealthDroid是一款开源的移动框架,主要用于帮助开发者快速而又 ...
- ASP.NET jquery-1.9.1 语句
<script src="Script/jquery-1.9.1.js"></script> <script language="javas ...
- Win10 的操作中心如果不见了
Win10 的操作中心如果不见了,可能是因为设置了不在任务栏显示操作中心,可以按照下面的设置来恢复. 1.单击开始菜单栏,打开设置: 2.选择个性化: 3.下图中,在左边选择"任务栏&quo ...
- day2学python 数据类型+深浅拷贝+循环
数据类型+深浅拷贝+循环 别的语言的数组 python不用定义 直接使用 color=['红','橙','黄','绿','青','蓝','紫'] print(color[1:3]) //打印[1,3) ...
- 设置使用的python版本
一.查看当前使用的python版本,或设置使用的python版本 二.python2中默认使用ASCII码,无法识别中文,报错如图,解决办法,设置字符集为utf-8
- MySQL 学习笔记(二):数据库更新、视图和数据控制
基础准备: 在 school 数据库下建立student.course.sc 三个表: create table student( Sno ) primary key, Sname ) unique, ...
- CF1137E. Train Car Selection(可删堆)
题面 三个操作 1.在当前数列最左端加入\(k\)个初始为\(0\)的数 2.在当前数列最右端加入\(k\)个初始为\(0\)的数 3.将当前数列从左到右第\(i\)个数加上\(b+(i-1)k(b& ...
- (原創) Gvim 個人習慣常用設定 (vim)
不定期更新這篇,因為查詢到好用的設定或者插件就會更新自己的設定. "set nocompatible let $LANG='zh_TW.UTF-8' set langmenu=zh_tw.u ...