一、什么是安全模式

安全模式时HDFS所处的一种特殊状态,在这种状态下,文件系统只接受读数据请求,而不接受删除、修改等变更请求。在NameNode主节点启动时,HDFS首先进入安全模式,DataNode在启动的时候会向namenode汇报可用的block等状态,当整个系统达到安全标准时,HDFS自动离开安全模式。如果HDFS处于安全模式下,则文件block不能进行任何的副本复制操作,因此达到最小的副本数量要求是基于datanode启动时的状态来判定的,启动时不会再做任何复制。

二、安全模式的相关配置

系统离开安全模式的条件:

1)可用的block占总数的比例

2)可用的数据节点数量符合要求

三、配置  hdfs-site.xml

dfs.namenode.replication.min:最小的文件block副本数量,默认为1

dfs.namenode.safemode.threshold-pct:副本数达到最小要求的block占系统总block数的百分比,当实际比例超出该配置后,才能离开安全模式

dfs.namenode.safemode.min.datanodes:离开安全模式的最小可用(alive)datanode数量要求,默认是0,也就是即使所有datanode都不可用,仍然可以离开安全模式

dfs.namenode.safemode.extension:当集群可用block比例,可用datanode都达到要求之后,如果在extension配置额时间段之后依然能满足要求,此时集群才离开安全模式,单位为毫秒。默认为1,也就是当满足条件并且能够维持1毫秒之后,离开安全模式。这个配置主要是针对集群的稳定程度做进一步的确认

四、相关操作命令

hadoop dfsadmin -safemode <command>

  • get     查看当前状态
  • enter   进入安全模式
  • leave   强制离开安全模式
  • wait   一直等待直到安全模式结束

五、源码分析

import org.apache.hadoop.classification.InterfaceAudience.Private;
import org.apache.hadoop.hdfs.protocol.Block; @Private
public interface SafeMode {
//检查进入或者退出安全模式的条件是否满足,如果满足,进入或退出安全模式
void checkSafeMode();
//系统当前是否处于安全模式
boolean isInSafeMode();
//系统启动时是否自动进入安全模式
boolean isInStartupSafeMode(); boolean isPopulatingReplQueues();
//增加达到最小副本数要求的block数
void incrementSafeBlockCount(int var1);
//降低达到最小副本数要求的block数
void decrementSafeBlockCount(Block var1);
} //周期性的检测是否可以离开安全模式,逻辑封装在run方法中
class SafeModeMonitor implements Runnable {
//两次检测间隔的毫秒数,即1秒
private static final long recheckInterval = 1000L; SafeModeMonitor() {
} public void run() {
//系统运行时,循环检测
while(FSNamesystem.this.fsRunning) {
FSNamesystem.this.writeLock(); try {
//没有安全模式相关信息,也就是不在安全模式
if(FSNamesystem.this.safeMode == null) {
//线程退出
break;
} if(FSNamesystem.this.safeMode.canLeave()) {
//离开安全模式
FSNamesystem.this.safeMode.leave();
FSNamesystem.this.smmthread = null;
//离开安全模式之后,线程退出
break;
}
} finally {
FSNamesystem.this.writeUnlock();
} try {
//两次检测之间,线程休眠
Thread.sleep(1000L);
} catch (InterruptedException var4) {
;
}
}
//当系统不在运行的时候,线程结束退出
if(!FSNamesystem.this.fsRunning) {
FSNamesystem.LOG.info("NameNode is being shutdown, exit SafeModeMonitor thread");
} }
}

  

在FSNamesystem.class中有SafeModeInfo用于保存安全模式下的相关信息:private volatile FSNamesystem.SafeModeInfo safeMode;
这个变量的类型为volatile,也就是桌该线程对该变量的任何修改完成后,其他线程立刻可以看到变化

private SafeModeInfo(Configuration conf) {
this.reached = -1L;
this.reachedTimestamp = -1L;
this.lastStatusReport = 0L;
this.resourcesLow = false;
this.shouldIncrementallyTrackBlocks = false;
//这个就是之前提到过的百分比配置
this.threshold = (double)conf.getFloat("dfs.namenode.safemode.threshold-pct", 0.999F);
if(this.threshold > 1.0D) {
FSNamesystem.LOG.warn("The threshold value should\'t be greater than 1, threshold: " + this.threshold);
}
//最小可用的datanode数量配置
this.datanodeThreshold = conf.getInt("dfs.namenode.safemode.min.datanodes", 0);
this.extension = conf.getInt("dfs.namenode.safemode.extension", 0);
this.safeReplication = conf.getInt("dfs.namenode.replication.min", 1);
FSNamesystem.LOG.info("dfs.namenode.safemode.threshold-pct = " + this.threshold);
FSNamesystem.LOG.info("dfs.namenode.safemode.min.datanodes = " + this.datanodeThreshold);
FSNamesystem.LOG.info("dfs.namenode.safemode.extension = " + this.extension);
this.replQueueThreshold = (double)conf.getFloat("dfs.namenode.replqueue.threshold-pct", (float)this.threshold);
this.blockTotal = 0;
this.blockSafe = 0;
}

  即:SafeModeMonitor作为守护线程,在收到来自datanode的BlockReport状态报告之后,周期性检测是否达到离开安全模式的条件,如果符合,则离开安全模式。

【大数据系列】HDFS安全模式的更多相关文章

  1. 大数据系列2:Hdfs的读写操作

    在前文大数据系列1:一文初识Hdfs中,我们对Hdfs有了简单的认识. 在本文中,我们将会简单的介绍一下Hdfs文件的读写流程,为后续追踪读写流程的源码做准备. Hdfs 架构 首先来个Hdfs的架构 ...

  2. 大数据系列之数据仓库Hive安装

    Hive系列博文,持续更新~~~ 大数据系列之数据仓库Hive原理 大数据系列之数据仓库Hive安装 大数据系列之数据仓库Hive中分区Partition如何使用 大数据系列之数据仓库Hive命令使用 ...

  3. 大数据系列(3)——Hadoop集群完全分布式坏境搭建

    前言 上一篇我们讲解了Hadoop单节点的安装,并且已经通过VMware安装了一台CentOS 6.8的Linux系统,咱们本篇的目标就是要配置一个真正的完全分布式的Hadoop集群,闲言少叙,进入本 ...

  4. 大数据系列(2)——Hadoop集群坏境CentOS安装

    前言 前面我们主要分析了搭建Hadoop集群所需要准备的内容和一些提前规划好的项,本篇我们主要来分析如何安装CentOS操作系统,以及一些基础的设置,闲言少叙,我们进入本篇的正题. 技术准备 VMwa ...

  5. 大数据系列之并行计算引擎Spark部署及应用

    相关博文: 大数据系列之并行计算引擎Spark介绍 之前介绍过关于Spark的程序运行模式有三种: 1.Local模式: 2.standalone(独立模式) 3.Yarn/mesos模式 本文将介绍 ...

  6. 大数据系列之并行计算引擎Spark介绍

    相关博文:大数据系列之并行计算引擎Spark部署及应用 Spark: Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎. Spark是UC Berkeley AMP lab ( ...

  7. 大数据系列之数据仓库Hive命令使用及JDBC连接

    Hive系列博文,持续更新~~~ 大数据系列之数据仓库Hive原理 大数据系列之数据仓库Hive安装 大数据系列之数据仓库Hive中分区Partition如何使用 大数据系列之数据仓库Hive命令使用 ...

  8. 大数据系列之数据仓库Hive原理

    Hive系列博文,持续更新~~~ 大数据系列之数据仓库Hive原理 大数据系列之数据仓库Hive安装 大数据系列之数据仓库Hive中分区Partition如何使用 大数据系列之数据仓库Hive命令使用 ...

  9. 大数据系列之分布式计算批处理引擎MapReduce实践

    关于MR的工作原理不做过多叙述,本文将对MapReduce的实例WordCount(单词计数程序)做实践,从而理解MapReduce的工作机制. WordCount: 1.应用场景,在大量文件中存储了 ...

  10. 大数据系列之分布式数据库HBase-1.2.4+Zookeeper 安装及增删改查实践

    之前介绍过关于HBase 0.9.8版本的部署及使用,本篇介绍下最新版本HBase1.2.4的部署及使用,有部分区别,详见如下: 1. 环境准备: 1.需要在Hadoop[hadoop-2.7.3]  ...

随机推荐

  1. Java调试那点事[转]

    转自云栖社区:https://yq.aliyun.com/articles/56?spm=5176.100239.blogcont59193.11.jOh3ZG# 摘要: 该文章来自于阿里巴巴技术协会 ...

  2. Erlang Trace机制

    从FTP模块学习先进的诊断技术(Erlang Trace机制) http://blog.yufeng.info/archives/466

  3. Spock集成入门

    本文基于SpringBoot 在pom.xml添加Spock依赖 <!-- test --> <dependency> <groupId>org.codehaus. ...

  4. linux任务计划 chkconfig工具 systemd管理服务 unit介绍 target介绍

    linux任务计划 任务计划:特定时间备份数据,重启服务,shell脚本,单独的命令等等. 任务计划配置文件:cat /etc/crontab [root@centos7 ~]# cat /etc/c ...

  5. Mac homebrew类似apt-get命令安装包

    INSTALL brew ruby -e "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/in ...

  6. 【ML】人脸识别

    https://github.com/colipso/face_recognition https://medium.com/@ageitgey/machine-learning-is-fun-par ...

  7. DataList中动态显示DIV

    <%# DataBinder.Eval(Container,  "DataItem.ProductName").ToString() == "股票矩阵" ...

  8. C#获取当前时区转换方法

    今天给Mongodb插入数据的时候发现,日期时间对不上,原来Mongodb(麻狗)默认是0时区,所以日期当然出错. 所以用下面进行转换就可以: log.AddTime = DateTime.Speci ...

  9. linux 实时查看Tomcat日志信息

    cd /../tomcat/logs 进入tomcat/logs/文件夹下  # tail -f catalina.out

  10. EasyHook实现

    using System; using System.Runtime.InteropServices; using System.Windows.Forms; using System.Collect ...