Hadoop多节点Cluster
Hadoop多节点集群规划
服务起名称 | 内网IP | HDFS | YARN |
master | 192.168.1.155 | NameNode | ResourceManager |
slave1 | 192.168.1.116 | DataNode | NodeManager |
slave2 | 192.168.1.117 | DataNode | NodeManager |
slave3 | 192.168.1.118 | DataNode | NodeManager |
1. Slave1机器配置
1.1 以单机Hadoop镜像为模板克隆出一个虚拟机, 修改固定IP及MAC地址(修改/etc/sysconfig/network-scripts/ifcfg-ens33)
DEVICE="ens33"
HWADDR="00:0C:29:30:BB:7E"
Type="Ethernet"
BOOTPROTO="static"
IPADDR=192.168.1.156
GATEWAY=192.168.1.1
NETMASK=255.255.255.0
ONBOOT="yes"
1.2 修改机器名为Slave1(/etc/hostname)
1.3 修改机器名及ip映射(/etc/hosts),同时将127.0.0.1映射到slave1
192.168.1.155 master
192.168.1.156 slave1
192.168.1.157 slave2
192.168.1.157 slave3
1.4 编辑/usr/local/hadoop/etc/hadoop/core-site.xml,设置fs.defaultFS值为hdfs://master:9000
1.5 编辑.../..../yarn-site.xml,添加额外的3个property(nodemanager->resourcemanager, application-master->resourcemanager, client->resourcemanager)
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:8025</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8030</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:8050</value>
</property>
1.6 编辑mapred-site.xml,添加
<property>
<name>mapred.job.tracker</name>
<value>master:54331</value>
</property>
1.7 编辑hdfs-site.xml, slave1为datanode,所以设置data dir
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/local/hadoop/hadoop_data/hdfs/datanode</value>
</property>
2. Slave2机器配置
2.1 以Slave1机器为模板,复制出新的VM,然后修改固定IP及MAC
DEVICE="ens33"
HWADDR="00:0C:29:51:C4:45"
Type="Ethernet"
BOOTPROTO="static"
PADDR=192.168.1.157
GATEWAY=192.168.1.1
NETMASK=255.255.255.0
ONBOOT="yes"
2.2 修改机器名为Slave2(/etc/hostname)
2.3 修改/etc/hosts,将127.0.0.1映射到slave2
3. Slave3机器配置
3.1 以Slave1机器为模板,复制出新的VM,然后修改固定IP及MAC
DEVICE="ens33"
HWADDR="00:0C:29:BE:C6:0C"
Type="Ethernet"
BOOTPROTO="static"
IPADDR=192.168.1.158
GATEWAY=192.168.1.1
NETMASK=255.255.255.0
ONBOOT="yes"
3.2 修改机器名为Slave3(/etc/hostname)
3.3 修改/etc/hosts,将127.0.0.1映射到slave3
4. Master机器配置
4.1 设置hdfs-site.xml, Master为NameNode, 指定name dir
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/hadoop/hadoop_data/hdfs/namenode</value>
</property>
4.4 设置yarn-site.xml
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:8025</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8030</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:8050</value>
</property>
4.3 编辑masters(/usr/local/hadoop/etc/hadoop/masters), 内容为master
4.4 编辑slaves(/usr/local/hadoop/etc/hadoop/slaves,内容为
slave1
slave2
slave3
4.5 ssh到3台slaves机器,创建datanode目录/usr/local/hadoop/hadoop_data/hdfs/datanode
4.6 master机器上创建namenode目录/usr/local/hadoop/hadoop_data/hdfs/namenode
4.7 格式化NameNode HDFS目录(hdfs namenode -format), 注意:首次格式化时使用
4.8 启动多节点Hadoop Cluster
start-dfs.sh
start-yarn.sh
4.9 查看ResourceManager Web界面(http://master:8088)及NameNode Web界面(http://master:50070)
4.10 关闭多节点Hadoop Cluster
stop-dfs.sh
stop-yarn.sh
其他:删除多余内网ip命令ip addr del 192.168.1.105/24 dev ens33
Hadoop多节点Cluster的更多相关文章
- Hadoop添加节点datanode(生产环境)
Hadoop添加节点datanode 博客分类: hadoop HadoopSSHJDKXML工作 1.部署hadoop 和普通的datanode一样.安装jdk,ssh 2.修改host ...
- 实验-hadoop新增节点
关于hadoop新增节点网上的说法都有些差别,自己来实践一把 1.建立一个namenode一个datanode的集群 master:192.168.126.130 slave1:192.168.126 ...
- Hadoop Datanode节点无法启动(All directories in dfs.data.dir are invalid)
Hadoop Datanode节点无法启动(All directories in dfs.data.dir are invalid) java.io.IOException: All director ...
- 一、hadoop单节点安装测试
一.hadoop简介 相信你或多或少都听过hadoop这个名字,hadoop是一个开源的.分布式软件平台.它主要解决了分布式存储(hdfs)和分布式计算(mapReduce)两个大数据的痛点问题,在h ...
- 当Hadoop 启动节点Datanode失败解决
Hadoop 启动节点Datanode失败解决 [日期:2014-11-01] 来源:Linux社区 作者:shuideyidi [字体:大 中 小] 当我动态添加一个Hadoop从节点的之后,出现 ...
- 【Hadoop】Hadoop DataNode节点超时时间设置
hadoop datanode节点超时时间设置 datanode进程死亡或者网络故障造成datanode无法与namenode通信,namenode不会立即把该节点判定为死亡,要经过一段时间,这段时间 ...
- 【大数据系列】hadoop单节点安装官方文档翻译
Hadoop: Setting up a Single Node Cluster. HADOOP:建立单节点集群 Purpose Prerequisites Supported Platforms R ...
- Hadoop多节点集群安装配置
目录: 1.集群部署介绍 1.1 Hadoop简介 1.2 环境说明 1.3 环境配置 1.4 所需软件 2.SSH无密码验证配置 2.1 SSH基本原理和用法 2.2 配置Master无密码登录所有 ...
- 一步步教你Hadoop多节点集群安装配置
1.集群部署介绍 1.1 Hadoop简介 Hadoop是Apache软件基金会旗下的一个开源分布式计算平台.以Hadoop分布式文件系统HDFS(Hadoop Distributed Filesys ...
随机推荐
- HTML解析库BeautifulSoup4
BeautifulSoup 是一个可以从HTML或XML文件中提取数据的Python库,它的使用方式相对于正则来说更加的简单方便,常常能够节省我们大量的时间. BeautifulSoup也是有官方中文 ...
- 06springMVC数据验证
u 声明式数据验证 u 内置的验证约束和注解 u 错误消息 u 功能处理方法上多个验证参数的处理 u 异常处理的支持 1 声明式数据验证 Spring3开始支持JSR-303验证框 ...
- 51Nod——T 1113 矩阵快速幂
https://www.51nod.com/onlineJudge/questionCode.html#!problemId=1113 基准时间限制:3 秒 空间限制:131072 KB 分值: 40 ...
- Hibernate二级缓存的使用
1.什么是缓存? 缓存是介于物理数据源与应用程序之间,是对数据库中的数据复制一份临时放在内存中的容器,其作用是为了减少应用程序对物理数据源访问的次数,从而提高了应用程序的运行性能.Hibernate在 ...
- oracle 12c之前用sequence 和 trigger来生成自动增长的列
SQL> create table scott.t1 (id number, val varchar2(8)); Table created. SQL> CREATE SEQUENCE s ...
- 解决Ubuntu下Apache不解析PHP问题
这两天笔者遇到了一个很操蛋的问题——Apache无法解析PHP代码了,之前一直用的挺好的,突然就挂了,然后在网上疯狂的找解决办法,但是大都是php5的版本,而我却是7的版本,我就先顺便把5版本的解决方 ...
- VS2010: 远程访问IIS Express
可以远程访问IIS Express的意义在于:1. 可以从其它设备上Debug项目,这点对于手持设备等不是很容易用虚拟机虚拟的设备尤为重要.2. 可以避免过早配置IIS 7(不一定是好事. ...
- linux sh 脚本调用外部命令
参考:http://blog.csdn.net/lhb_blog/article/details/22083649 ------------------------------------------ ...
- STM32的独立看门狗
STM32 内 部自带了 2 个看门狗:独立看门狗(IWDG)和窗体看门狗(WWDG) STM32 的独立看门狗由内部专门的 40Khz 低速时钟驱动.即使主时钟发生问题.它也仍然 有效. 这里须要注 ...
- Jemeter命令执行
http://mp.weixin.qq.com/s?__biz=MzAxOTg2NDUyOA==&mid=2657555034&idx=1&sn=9e6a3fbd5eed859 ...