Hadoop源码学习笔记(3) ——初览DataNode及学习线程
Hadoop源码学习笔记(3)
——初览DataNode及学习线程
进入了main函数,我们走出了第一步,接下来看看再怎么走:
- public class DataNode extends Configured implements InterDatanodeProtocol,
- ClientDatanodeProtocol, FSConstants, Runnable {
- public static DataNode createDataNode(String args[], Configuration conf)
- throws IOException {
- DataNode dn = instantiateDataNode(args, conf);
- runDatanodeDaemon(dn);
- return dn;
- }
- public static void runDatanodeDaemon(DataNode dn) throws IOException {
- dn.dataNodeThread = new Thread(dn, dnThreadName);
- dn.dataNodeThread.setDaemon(true);
- dn.dataNodeThread.start();
- }
- }
- public static DataNode instantiateDataNode(String args[], Configuration conf)
- throws IOException {
- return makeInstance(dataDirs, conf);
- }
- public static DataNode makeInstance(String[] dataDirs, Configuration conf) {
- return new DataNode(conf, dirs);
- }
- DataNode(Configuration conf, AbstractList<File> dataDirs)
- throws IOException {
- startDataNode(conf, dataDirs);
- }
- vid join(){
- dataNodeThread.join();
- }
- void startDataNode(Configuration conf, AbstractList<File> dataDirs)
- throws IOException {
- }
- public static void main(String args[]) {
- DataNode datanode = createDataNode(args, null);
- datanode.join();
- }
- }
从上面的程序可以看到,程序从main函数中运行,然后一层创建了DataNode对象,然后在runDatanodeDaemon函数创建了一个线程,然后程序调用了线程就停留在哪里了。
换个写法,可能看起来更清晰点了:
- public static void main(String args[]) {
- DataNode datanode = new DataNode();
- Thread dataNodeThread = new Thread(dn, dnThreadName);
- dataNodeThread.setDaemon(true);
- dataNodeThread.start();
- dataNodeThread.join();
- }
这样代码清晰了,换句话说,整个DataNode目前看来,就是一个大线程在跑。
整个来讲,线程,还是比较容易理解,整个类继承于Runnable接口,然后实现Run函数。 能过Thread类创建时传入对象实现,在Start后,线程就会运行,执行Run函数内的内容。
但这代码中有几行有点疑惑:
- SetDaemon(true):这个函数的意义,并非是简单的字面意义了(Daemon:守护),一般情况下,当一个线程还没运行完,主程序是卡住的,但设置为daemon为true时,当主程序结束,则线程也就自动结束。
- Join():这个函数就是等待线程结束后再往下走。就相当于我们常在主序中写的while(true){}一样。
创建线程,除了这种继承Runnable接口之外,还可以直接继承Thread类,然后直接调用对象的Start函数。但这样的话不太方便了,因为一个类只能继承一个类,但可继承多个接口,所以用接口更加灵活。
针对线程的这两个特性,我们可以写个简单的示例来试验一下:
- import java.io.IOException;
- public class ThreadTest extends Thread {
- public class FirstThread extends Thread{
- @Override
- public void run(){
- }
- }
- public class SecondThread implements Runnable{
- @Override
- public void run() {
- }
- }
- public void run(){
- for(int i = 1; i <= 50; i++){
- try{
- Thread.sleep(100);
- } catch (InterruptedException ex){
- ex.printStackTrace();
- }
- System.out.println(i);
- }
- }
- public static void main(String[] args) throws IOException {
- ThreadTest test = new ThreadTest();
- Thread thd = new Thread(test);
- // create and start 2mehtod
- //1: FirstThread thd = new FirstThread();
- // thd.Start();
- //2: SecondThread thdx = new SecondThread()
- //Thread thd = new Thread(thd);
- //thd.Start();
- // 如果不设置daemon,那么线程将输出50后才结束
- thd.setDaemon(true);
- thd.start();
- System.out.println("isDaemon = " + thd.isDaemon());
- System.in.read(); // 接受输入程序在此停顿,一旦有输入,main线程结束,守护线程自动结束
- //thd.join();
- }
- }
示例中涉及到了创建线程的方法,join函数和setDaemno函数,可分别释放注释来调试、观察。
Hadoop源码学习笔记(3) ——初览DataNode及学习线程的更多相关文章
- Hadoop源码学习笔记(6)——从ls命令一路解剖
Hadoop源码学习笔记(6) ——从ls命令一路解剖 Hadoop几个模块的程序我们大致有了点了解,现在我们得细看一下这个程序是如何处理命令的. 我们就从原头开始,然后一步步追查. 我们先选中ls命 ...
- Hadoop源码学习笔记(5) ——回顾DataNode和NameNode的类结构
Hadoop源码学习笔记(5) ——回顾DataNode和NameNode的类结构 之前我们简要的看过了DataNode的main函数以及整个类的大至,现在结合前面我们研究的线程和RPC,则可以进一步 ...
- Hadoop源码学习笔记(1) ——第二季开始——找到Main函数及读一读Configure类
Hadoop源码学习笔记(1) ——找到Main函数及读一读Configure类 前面在第一季中,我们简单地研究了下Hadoop是什么,怎么用.在这开源的大牛作品的诱惑下,接下来我们要研究一下它是如何 ...
- Hadoop源码学习笔记(4) ——Socket到RPC调用
Hadoop源码学习笔记(4) ——Socket到RPC调用 Hadoop是一个分布式程序,分布在多台机器上运行,事必会涉及到网络编程.那这里如何让网络编程变得简单.透明的呢? 网络编程中,首先我们要 ...
- Hadoop源码学习笔记(2) ——进入main函数打印包信息
Hadoop源码学习笔记(2) ——进入main函数打印包信息 找到了main函数,也建立了快速启动的方法,然后我们就进去看一看. 进入NameNode和DataNode的主函数后,发现形式差不多: ...
- Hadoop源码学习笔记之NameNode启动场景流程一:源码环境搭建和项目模块及NameNode结构简单介绍
最近在跟着一个大佬学习Hadoop底层源码及架构等知识点,觉得有必要记录下来这个学习过程.想到了这个废弃已久的blog账号,决定重新开始更新. 主要分以下几步来进行源码学习: 一.搭建源码阅读环境二. ...
- hadoop源码学习(-)
这是从hadoop源码中间截取的一个片段,你看看你能不能看懂:如果不能看懂,说明你的javase基础很差. private static class GroupFactory extends Coun ...
- Hadoop源码编译过程
一. 为什么要编译Hadoop源码 Hadoop是使用Java语言开发的,但是有一些需求和操作并不适合使用java,所以就引入了本地库(Native Libraries)的概念,通 ...
- 如何导入hadoop源码到eclipse
需要进一步学习hadoop.需要看看内部源码实现,因此需要将hadoop源码导入都eclipse中. 简单总结一下,具体步骤如下: 首先确保已经安装了git.maven3.protobuf2.5.如果 ...
随机推荐
- python文件备份与简单操作
#!/usr/bin/python # -*- coding: utf-8 -*- # data:2018/8/30 # user:fei import sys import random num = ...
- PAT乙级1091-1095
1091 N-自守数 (15 分) 如果某个数 K 的平方乘以 N 以后,结果的末尾几位数等于 K,那么就称这个数为“N-自守数”.例如 3,而 2 的末尾两位正好是 9,所以 9 是一个 3-自守数 ...
- H - Graphics(dfs)
H - Graphics Time Limit:1000MS Memory Limit:131072KB 64bit IO Format:%lld & %llu Submi ...
- “全栈2019”Java第八十八章:接口中嵌套接口的应用场景
难度 初级 学习时间 10分钟 适合人群 零基础 开发语言 Java 开发环境 JDK v11 IntelliJ IDEA v2018.3 文章原文链接 "全栈2019"Java第 ...
- hadoop1.0.4运行程序出现“Java heap Space”错误
根据虾皮博客中教程,成功搭建了一个12台电脑的Hadoop云平台,而且成功运行了软件自带的wordcount程序,处理10M数据. 但是当程序处理40M时候,却出错了.出错提示“Java Heap S ...
- Performs the analysis process on a text and return the tokens breakdown of the text
Analyzeedit Performs the analysis process on a text and return the tokens breakdown of the text. Can ...
- HDU-1160-FatMouse's Speed(线性DP,LIS)
FatMouse's Speed Time Limit: 2000/1000 MS (Java/Others) Memory Limit: 65536/32768 K (Java/Others) ...
- jpetStore 学习总结(1)
最近学习了Springmvc4,对官方的例子jpetStore进行了分析研究,在官方网站下载spring-framework-2.5.6.SEC03,其中samples文件夹里就有jpetstore的 ...
- 第三方库PIL
第三方库PIL 一.Python简介 Python是一门简洁高效.通俗易懂的高阶动态编程语言,也可以理解成是一种面向对象的解释型计算机程序设计语言. Python具有丰富和强大的库.也经常被行内人员称 ...
- python全栈开发_day16_包
一:包 1)包就是管理一系列模块的文件夹 2)包中有一个__init__.py文件来专门管理每一个模块(在__init__文件中不建议import导入模块,不建议as起别名) 二:导入完成的工作 1) ...