HADOOP HA组态

hadoop2.x的ha组态。这份文件是在那里的描述中hdfs与yarn的ha组态。

这份文件的假设是zk它已被安装并配置,事实上,任何安装。

hdfs ha组态

首先。配置core-site.xml配置文件:

<property>

在老版本号中使用mr1时,还可能使用fs.default.name来进行配置

<name>fs.defaultFS</name>

此处配置的mycluster眼下还未定义。我们须要记住这个值,

这个表示此namenode的nameServiceId,在hdfs-site中定义,此处进行引用

<value>hdfs://mycluster</value>

</property>

接下来,配置当namenode发生切换时的检查方法。当NAMENODE切换时。

须要检查并确保仅仅有一个active节点。

因此会通过SHELL或SSH的方式过去强制中止或运行检查

<property>
  <name>dfs.ha.fencing.methods</name>
此处的可配置值sshfence/shell
  <value>sshfence</value>
</property>
 
<property>
  <name>dfs.ha.fencing.ssh.private-key-files</name>
  <value>/root/.ssh/id_rsa</value>
</property>

配置ha连接的zk的连接地址,

<property>
  <name>ha.zookeeper.quorum</name>
  <value>one.cluster:2181,two.cluster:2181,three.cluster:2181</value>
</property>

还能够有例如以下几个配置:

ha.zookeeper.session-timeout.ms,zk的session超时时间,默认是5000ms

ha.zookeeper.parent-znode,hdfs的ha在zk上的存储路径 ,默认是/hadoop-ha

接下来对hdfs-site.xml进行配置

定义上面提到过的nameserviceid的值,

<property>
  <name>dfs.nameservices</name>
此处对当前配置的ha的nameserviceid进行定义,此处的mycluster中间不能使用"_"线
  <value>mycluster</value>
</property>

接下来定义nameserviceid中须要使用到的namenode的id,

<property>
  <name>dfs.ha.namenodes.mycluster</name>
此处定义了两个namenode的id,也就是须要配置两具namenode,id各自是nn1与nn2
  <value>nn1,nn2</value>
</property>

在定义完毕须要的namenode id后。

须要针对每个namenode,定义其相关的rpc,http地址。

假设有启用https,还须要设置https-address

此处的配置通过nameserviceid.namenodeid来进行配置。

<property>
  <name>dfs.namenode.rpc-address.mycluster.nn1</name>
  <value>one.cluster:8020</value>
</property>
<property>
  <name>dfs.namenode.rpc-address.mycluster.nn2</name>
  <value>two.cluster:8020</value>
</property>
<property>
  <name>dfs.namenode.http-address.mycluster.nn1</name>
  <value>one.cluster:50070</value>
</property>
<property>
  <name>dfs.namenode.http-address.mycluster.nn2</name>
  <value>two.cluster:50070</value>
</property>

接下来配置namenode edits的共享存储。在这里使用QJM来进行配置:

qjm是一个非常轻量的进程,能够直接部署到namenode或datanode中。

qjm的默认rpcport是8485,默认httpport是8480,

可通过配置dfs.journalnode.rpc-address。dfs.journalnode.http-address来改动port。

qjm必须配置为单数个(N),可以保证在(N-1)/2个正常执行时,可以正常提供服务。

<property>
  <name>dfs.namenode.shared.edits.dir</name>
  <value>qjournal://one.cluster:8485;two.cluster:8485;three.cluster:8485/mycluster</value>
</property>

配置QJM的存储路径 :

<property>
  <name>dfs.journalnode.edits.dir</name>
  <value>/data/1/dfs/jn</value>
</property>

设置针对此nameserviceid的client代理:

client请求时通过nameserviceid来做请求。

nameserviceid解析出相应的active namenode就通过此配置中的java类来完毕。

<property>
  <name>dfs.client.failover.proxy.provider.mycluster</name>
  <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>

接下来配置namenode的自己主动故障转换。

<property>
  <name>dfs.ha.automatic-failover.enabled</name>
  <value>true</value>
</property>

把配置文件 拷贝到全部的节点中。这个不能忘呀。

在配置有QJM的节点中启动QJM.

进入hadooop_home/sbin文件夹

./hadoop-daemon.sh start journalnode

进入hadoop_home/bin文件夹下,运行./hdfs zkfc -formatZK在zk上进行格式化

对namenode进行format操作:

进入hadoop_home/bin文件夹,并运行例如以下命令

运行./hadoop namenode -format -clusteridhacluster命令。

./hdfs namenode-initializeSharedEdits

接下来启动主的namenode, 进入hadooop_home/sbin文件夹,运行例如以下命令

./hadoop-daemon.sh start namenode

赶往standby的namenode节点。

进入hadoop_home/bin文件夹,运行例如以下命令:

./hdfs namenode -bootstrapStandby

启动standby 的namenode,进入hadooop_home/sbin文件夹,运行例如以下命令

./hadoop-daemon.sh start namenode

接下来启动各个datanode节点。

./hadoop-daemon.sh start datanode

最后一步。启动zkfc,自己主动切换namenode节点的服务。

由于此时两个namenode都是standby的状态,须要启动zkfc来实现切换。

在主namenode与standby的namenode中进行hadoop_home/sbin文件夹。并运行例如以下命令

./hadoop-daemon.sh start zkfc

the end.

YARN RM的HA配置

配置yarn中resourcemanager的HA仅仅有在hadoop2.3.x后才引进,

yarn的ha配置相对简单,直接配置yarn-site.xml文件

<property>
rm连接失败的重试间隔
    <name>yarn.resourcemanager.connect.retry-interval.ms</name>
    <value>2000</value>
  </property>
<property>
是否启用ha配置。默认是false.
    <name>yarn.resourcemanager.ha.enabled</name>
    <value>true</value>
  </property>
<property>
启动自己主动故障转移,默觉得false
    <name>yarn.resourcemanager.ha.automatic-failover.enabled</name>
    <value>true</value>
  </property>
<property>
启用一个内嵌的故障转移,与ZKRMStateStore一起使用。
    <name>yarn.resourcemanager.ha.automatic-failover.embedded</name>
    <value>true</value>
  </property>
<property>
    <name>yarn.resourcemanager.cluster-id</name>
    <value>rm-cluster</value>
  </property>
<property>
    <name>yarn.resourcemanager.ha.rm-ids</name>
    <value>rm1,rm2</value>
  </property>
<property>
配置当前的rm节点。这个地方要注意。在rm1这个机器上时,配置为rm1
在rm2这台机器上时,须要配置为rm2.它们之间通过zk来实现active操作
    <name>yarn.resourcemanager.ha.id</name>
    <value>rm1</value>
  </property>
<property>
    <name>yarn.resourcemanager.recovery.enabled</name>
    <value>true</value>
  </property>
<property>
HA时,RMStateStore须要配置为这个值。
    <name>yarn.resourcemanager.store.class</name>
 <value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore</value>
  </property>
<property>
配置与zk的连接地址
    <name>yarn.resourcemanager.zk.state-store.address</name>
    <value>localhost:2181</value>
  </property>
<property>
  <name>yarn.resourcemanager.zk-address</name>
  <value>localhost:2181</value>
</property>
<!-- RM1 configs -->
  <property>
    <name>yarn.resourcemanager.address.rm1</name>
    <value>host1:23140</value>
  </property>
  <property>
    <name>yarn.resourcemanager.scheduler.address.rm1</name>
    <value>host1:23130</value>
  </property>
  <property>
    <name>yarn.resourcemanager.webapp.https.address.rm1</name>
    <value>host1:23189</value>
  </property>
  <property>
    <name>yarn.resourcemanager.webapp.address.rm1</name>
    <value>host1:23188</value>
  </property>
  <property>
    <name>yarn.resourcemanager.resource-tracker.address.rm1</name>
    <value>host1:23125</value>
  </property>
  <property>
    <name>yarn.resourcemanager.admin.address.rm1</name>
    <value>host1:23141</value>
  </property>
<!-- RM2 configs -->
  <property>
    <name>yarn.resourcemanager.address.rm2</name>
    <value>host2:23140</value>
  </property>
  <property>
    <name>yarn.resourcemanager.scheduler.address.rm2</name>
    <value>host2:23130</value>
  </property>
  <property>
    <name>yarn.resourcemanager.webapp.https.address.rm2</name>
    <value>host2:23189</value>
  </property>
  <property>
    <name>yarn.resourcemanager.webapp.address.rm2</name>
    <value>host2:23188</value>
  </property>
  <property>
    <name>yarn.resourcemanager.resource-tracker.address.rm2</name>
    <value>host2:23125</value>
  </property>
  <property>
    <name>yarn.resourcemanager.admin.address.rm2</name>
    <value>host2:23141</value>
  </property>
 
 

启动yarn的各节点,

在主resourcemanager与standby的resourcemanager运行

yarn-daemon.sh start resourcemanager

在nodemanager运行

yarn-daemon.sh start nodemanager

hadoop-ha组态的更多相关文章

  1. 使用Nginx+Lua代理Hadoop HA

    一.Hadoop HA的Web页面访问 Hadoop开启HA后,会同时存在两个Master组件提供服务,其中正在使用的组件称为Active,另一个作为备份称为Standby,例如HDFS的NameNo ...

  2. Hadoop技术之Hadoop HA 机制学习

    欢迎大家前往腾讯云技术社区,获取更多腾讯海量技术实践干货哦~ 作者:温球良 导语 最近分享过一次关于Hadoop技术主题的演讲,由于接触时间不长,很多技术细节认识不够,也没讲清楚,作为一个技术人员,本 ...

  3. hadoop HA 详解

    NameNode 高可用整体架构概述 在 Hadoop 1.0 时代,Hadoop 的两大核心组件 HDFS NameNode 和 JobTracker 都存在着单点问题,这其中以 NameNode ...

  4. Hadoop HA高可用集群搭建(Hadoop+Zookeeper+HBase)

    声明:作者原创,转载注明出处. 作者:帅气陈吃苹果 一.服务器环境 主机名 IP 用户名 密码 安装目录 master188 192.168.29.188 hadoop hadoop /home/ha ...

  5. hadoop ha zkfc 异常自动切换机制和hdfs 没有空间问题解决

    在我搭建hadoop ha 后,我启动了各个功能,但是发现hadoop hdfs 没法使用,在web 页面也显示hdfs 可用空间为零,并且自动备份机制无法使用,本人也不理解,然后就是指定hdfs t ...

  6. Hadoop ha CDH5.15.1-hadoop集群启动后,集群容量不正确,莫慌,这是正常的表现!

    Hadoop ha CDH5.15.1-hadoop集群启动后,集群容量不正确,莫慌,这是正常的表现! 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.集群启动顺序 1>. ...

  7. Hadoop ha CDH5.15.1-hadoop集群启动后,两个namenode都是standby模式

    Hadoop ha CDH5.15.1-hadoop集群启动后,两个namenode都是standby模式 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一说起周五,想必大家都特别 ...

  8. 基于zookeeper的高可用Hadoop HA集群安装

    (1)hadoop2.7.1源码编译 http://aperise.iteye.com/blog/2246856 (2)hadoop2.7.1安装准备 http://aperise.iteye.com ...

  9. hadoop ha 读取 activce状态的活动节点

    方式一 package com.xxx.hadoop; import com.sun.demo.jvmti.hprof.Tracker; import com.sun.xml.bind.util.Wh ...

  10. Hadoop HA方案调研

    原文成文于去年(2012.7.30),已然过去了一年,很多信息也许已经过时,不保证正确,与Hadoop学习笔记系列一样仅为留做提醒. ----- 针对现有的所有Hadoop HA方案进行调研,以时间为 ...

随机推荐

  1. Delphi接口的底层实现(接口在内存中仍然有其布局,它依附在对象的内存空间中,有汇编解释)——接口的内存结构图,简单清楚,深刻 good

    引言 接口是面向对象程序语言中一个很重要的元素,它被描述为一组服务的集合,对于客户端来说,我们关心的只是提供的服务,而不必关心服务是如何实现的:对于服务端的类来说,如果它想实现某种服务,实现与该服务相 ...

  2. js 常用正则表达式分析详解

    1.整数或者小数:/^((0{1}|[1-9]{1}[0-9]+)\.{1}[0-9]+|[1-9]{1}[0-9]*|0)$/ 分析:分类讨论,如果是小数,则有两种形式   0.111对应的是 0{ ...

  3. 如何下载和编译Android4.0内核源代码goldfish(图像)

    如何下载Android4.0源代码.请参阅我的博客文章中有(同样是图文教程): http://blog.csdn.net/flydream0/article/details/7036156 怎样编译A ...

  4. CDOJ 1221 Ancient Go

    题目链接:http://acm.uestc.edu.cn/#/problem/show/1221 题目分类:dfs 代码: #include<bits/stdc++.h> using na ...

  5. Android实战开发租赁管理软件(适配UI,数据的存储,多线程下载)课程分享

    亲爱的网友,我这里有套课程想和大家分享,假设对这个课程有兴趣的,能够加我的QQ2059055336和我联系. 课程内容简单介绍 我们软件是基于移动设备的.所以我们必定的选择了安卓作为我们的开发工具.课 ...

  6. Redis最有用的中文资源,你值得拥有

    只是为了记录资源地址,最好直接访问doc.redisfans.com更美观 Redis 命令参考 本文档是 Redis Command Reference 和 Redis Documentation ...

  7. 智能手机的工业控制应用方案——SimpleWiFi在工业控制领域应用

    智能手机的工业控制应用方案——SimpleWiFi在工业控制领域应用    先上图: 现在的智能控制都是基于微控制器,随着智能的手持终端的普及,基于智能终端的控制就会越来越普遍. WIFI便是其中的一 ...

  8. API - 微云

    API - 微云 1.接口说明 2.数据上传协议说明 1. 接口说明 文件上传申请,成功会返回实际上传的地址. 根据申请上传返回的地址,组织数据上传. 1.1 URL OAuth2.0协议: http ...

  9. 【Cocos2d-X开发学习笔记】第30期:游戏中数据的存储(下)

    本系列学习教程使用的是cocos2d-x-2.1.4(最新版为3.0alpha0-pre) ,PC开发环境Windows7,C++开发环境VS2010 一.对数据进行编解码 在上一期中,我们使用了CC ...

  10. JavaScript RegExp对象

    一.什么是RegExp         1.RegExp 是正則表達式的缩写. 2.当您检索某个文本时,能够使用一种模式来描写叙述要检索的内容.RegExp 就是这样的模式. 3.简单的模式能够是一个 ...