Hadoop记录-切换NN
一、第一种方法
重启namenode(1.1.1.1 1.1.1.2)
重启standby节点:1.1
hadoop-daemon.sh stop zkfc
hadoop-daemon.sh stop namenode
hadoop-daemon.sh start namenode
hadoop dfsadmin -safemode get #查看安全模式是否退出
hadoop-daemon.sh start zkfc
tail -300f /log/hadoop/hadoop-hdfs-zkfc-xxx.log #查看zkfc日志是否已注册节点返回信息(standby)
重启1.2(从1.2切换到1.1)
停止1.4的zkfc:hadoop-daemon.sh stop zkfc
查看1.1是否已自动切换为active
tail -300f /log/hadoop/hadoop-hdfs-zkfc-xxx.log #查看zkfc日志是否已注册节点返回信息(active)
如已切换,重启1.2 namenode
hadoop-damon.sh stop namenode
hadoop-damon.sh start namenode
hadoop dfsadmin -safemode get #查看安全模式是否退出
hadoop-daemon.sh start zkfc
tail -300f /log/hadoop/hadoop-hdfs-zkfc-xxx.log #查看zkfc日志是否已注册节点返回信息(standby)
从1.1切换到1.2
停止1.1的zkfc
hadoop-daemon.sh stop zkfc
查看1.2是否已自动切换为active
tail -300f /log/hadoop/hadoop-hdfs-zkfc-xxx.log #查看zkfc日志是否已注册节点返回信息(active)
hadoop dfsadmin -safemode get #查看安全模式是否退出
http://1.1.1.1:50070/dfshealth.html#tab-overview
http://1.1.1.2:50070/dfshealth.html#tab-overview
如已切换,启动1.1的zkfc
hadoop-daemon.sh start zkfc
tail -300f /log/hadoop/hadoop-hdfs-zkfc-xxx.log #查看zkfc日志是否已注册节点返回信息(standby)
################################################################
#切换ative nn
#hdfs haadmin -failover nn2 nn1
#
#把nn1置为:standby hdfs haadmin -transitionToStandby nn1
#把nn2置为:Active hdfs haadmin -transitionToActive nn2
#
#hdfs haadmin -transitionToActive nn1
#hadoop-daemon.sh stop namenode (nn2)
#hadoop-daemon.sh start namenode (nn2)
#nn2 变为standby
#
#hdfs haadmin -transitionToStandby -forcemanual nn2
#
#hdfs haadmin -failover --forcefence --forceactive nn2 nn1
#hdfs haadmin -failover --forcefence --forceactive nn1 nn2
##############################################################
二、第2种方法
1.保证standby节点和active节点的zkfc正常运行
2.停止active节点的zkfc,查看standby节点的zkfc日志是否已切换为active
3.如已切换,开启已停止的zkfc,待状态已切换,切换完成
Hadoop记录-切换NN的更多相关文章
- Hadoop记录-Apache hadoop+spark集群部署
Hadoop+Spark集群部署指南 (多节点文件分发.集群操作建议salt/ansible) 1.集群规划节点名称 主机名 IP地址 操作系统Master centos1 192.168.0.1 C ...
- hadoop记录-如何换namenode机器
namenode机器磁盘IO负载持续承压,造成NAMENODE切换多次及访问异常. 1 初始化新机器1.1 在新器1.1.1.3部署hadoop软件(直接复制standby1.1.1.2节点)1.2 ...
- hadoop记录-Hadoop参数汇总
Hadoop参数汇总 linux参数 以下参数最好优化一下: 文件描述符ulimit -n 用户最大进程 nproc (hbase需要 hbse book) 关闭swap分区 设置合理的预读取缓冲区 ...
- Hadoop记录-日常运维操作
1.Active NameNode hang死,未自动切换 #登录当前hang死 Active namenode主机,停止Namenode,触发自动切换.hadoop-daemon.sh stop n ...
- Hadoop记录-hdfs转载
Hadoop 存档 每个文件均按块存储,每个块的元数据存储在namenode的内存中,因此hadoop存储小文件会非常低效.因为大量的小文件会耗尽namenode中的大部分内存.但注意,存储小文件所需 ...
- Hadoop记录-hadoop2.x常用端口及定义方法
Hadoop集群的各部分一般都会使用到多个端口,有些是daemon之间进行交互之用,有些是用于RPC访问以及HTTP访问.而随着Hadoop周边组件的增多,完全记不住哪个端口对应哪个应用,特收集记录如 ...
- Hadoop记录-Hadoop NameNode 高可用 (High Availability) 实现解析
Hadoop NameNode 高可用 (High Availability) 实现解析 NameNode 高可用整体架构概述 在 Hadoop 1.0 时代,Hadoop 的两大核心组件 HDF ...
- Hadoop记录-Federation联邦机制
在Hadoop2.0之前,HDFS的单NameNode设计带来诸多问题: 单点故障.内存受限,制约集群扩展性和缺乏隔离机制(不同业务使用同一个NameNode导致业务相互影响)等 为了解决这些问题, ...
- HADOOP HA切换后出现MSSING BLOCK
HDFS HA切换后missing block问题分析 今天因为调整一个NN的参数,所以切换一个ACTIVE的NN,发生了MISSING BLOCK. 怀疑可能是EDITLOG没有同步完成,可能是误报 ...
随机推荐
- Docker容器镜像删除
好吧,本来认为删除镜像是一件很容易的事情,但刚开始上手,还是有点百思不得其解.删着删着,发现果然很容易.分享下本人的心得: 分两种情况:那么要删除镜像,首先得删除容器,删除容器时,确保容器已停止运行: ...
- 对Link Map File的初步认识
什么是Link Map File Link Map File中文直译为链接映射文件,它是在Xcode生成可执行文件的同时生成的链接信息文件,用于描述可执行文件的构造部分,包括了代码段和数据段的分布情况 ...
- vue源码分析—Vue.js 源码目录设计
Vue.js 的源码都在 src 目录下,其目录结构如下 src ├── compiler # 编译相关 ├── core # 核心代码 ├── platforms # 不同平台的支持 ├── ser ...
- c++ 指针做为参数和返回值
指针参数 返回值是指针 一.指针作参数形式的函数 //计算x的平方 x*x void square(int *x) { int a=*x; *x=a*a; } 二.指针作返回值的函数 int *squ ...
- 玩玩LED点阵屏(arduino nano)
做些记录,特别是led显示左移效果的代码,二进制位的特效函数 unsigned ][]= { 0xff,0xd7,0x83,0xd6,0xc6,0xd4,0xc6,0x82,0xd6,0xba,0xf ...
- 三十六、fetch
https://developer.mozilla.org/zh-CN/docs/Web/API/Fetch_API
- 使用栈实现队列(1)(Java)
class MyQueue { private Stack s1; private Stack s2; public MyQueue(int size) { this.s1 = new Stack(s ...
- 菜鸟学IT之简易四则运算程序开发
作业要求来源:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE1/homework/2166 作业要求: 任何编程语言都可以,命令行程序接受一个数字输入,然后 ...
- Python----多项式回归
多项式线性回归 1.多项式线性方程: 与多元线性回归相比,它只有一个自变量,但有不同次方数. 2.举例: import numpy as np import matplotlib.pyplot as ...
- java易混淆知识小结
1.java的基本数据类型,及所占字节和范围 byte: 字节型,占1个字节,8位,范围是 -2^7 ~ 2^7-1 short:短整型,占2个字节,16位,范围是 -2^15 ~ 2^15 ...