一.HDFS读写文件过程 1.读取文件过程 1)       初始化FileSystem,然后客户端(client)用FileSystem的open()函数打开文件 2)       FileSystem用RPC调用元数据节点,得到文件的数据块信息,对于每一个数据块,元数据节点返回保存数据块的数据节点的地址. 3)       FileSystem返回FSDataInputStream给客户端,用来读取数据,客户端调用stream的read()函数开始读取数据. 4)       DFSInpu…
最近工作需要,看了HDFS读写数据块这部分.不过可能跟网上大部分帖子不一样,本文主要写了${dfs.data.dir}的选择策略,也就是block在DataNode上的放置策略.我主要是从我们工作需要的角度来读这部分代码的. hdfs-site.xml <property> <name>dfs.data.dir</name> <value>/mnt/datadir1/data,/mnt/datadir2/data,/mnt/datadir3/data<…
一.HDFS 写数据流程 写的过程: CLIENT(客户端):用来发起读写请求,并拆分文件成多个 Block: NAMENODE:全局的协调和把控所有的请求,提供 Block 存放在 DataNode 上的地址: DATANODE:负责数据的存储,可以有很多个: 客户端想 NameNode 发出请求(包含 Blocksize 和 副本数): NameNode 经过计算,反馈给客户端相同副本数的 DataNode,切给出的 DataNode 有优先存储顺序要求:(数据与 DataNode 对应时,…
01 我们一起学大数据 老刘继续分享出Hadoop中的HDFS模块的一些高级知识点,也算是对今天复习的HDFS内容进行一次总结,希望能够给想学大数据的同学一点帮助,也希望能够得到大佬们的批评和指点! 02 知识点 第10点:HDFS机制之心跳机制 根据这个图,咱们说说心跳机制工作原理,首先master启动的时候,会开一个ipc server在那里:接着slave启动后,会向master注册连接,每隔3秒钟向master发送一个心跳,携带状态信息:最后master就会通过这个心跳的返回值,向sla…
01 我们一起学大数据 老刘今天开始了大数据Hadoop知识点的复习,Hadoop包含三个模块,这次先分享出Hadoop中的HDFS模块的基础知识点,也算是对今天复习的内容进行一次总结,希望能够给想学大数据的同学一点帮助,也希望能够得到大佬们的批评和指点!(每个点都很重要,都不能忽视) 02 需谨记的知识点 第1点:Hadoop是什么? Hadoop,它是Apache开发的一个分布式系统基础架构,由三个模块组成:分布式存储的HDFS.分布式计算的MapReduce.资源调度引擎Yarn. 第2点…
一.上传数据 二.下载数据 三.读写时的节点位置选择 1.网络节点距离(机架感知) 下图中: client 到 DN1 的距离为 4 client 到 NN 的距离为 3 DN1 到 DN2 的距离为 2 2.Block 的副本放置策略 NameNode 通过 Hadoop Rack Awareness 确定每个 DataNode 所属的机架 ID 简单但非最优的策略 将副本放在单独的机架上 这可以防止在整个机架出现故障时丢失数据,并允许在读取数据时使用来自多个机架的带宽. 此策略在群集中均匀分…
HDFS的组成 1.NameNode:存储文件的元数据,如文件名,文件目录结构,文件属性(创建时间,文件权限,文件大小) 以及每个文件的块列表和块所在的DataNode等.类似于一本书的目录功能. 2.DataNode:在本地文件系统存储文件块数据,以及块数据的校验和. 3.SecondaryNameNode:用来监控HDFS状态的辅助后台程序,每隔一段时间获取HDFS元数据的快照. HDFS写数据流程 1.HDFS客户端向NameNode请求是否可以上传该文件 2.NameNode返回客户端可…
高可用(Hign Availability,HA) 一.概念 作用:用于解决负载均衡和故障转移(Failover)问题. 问题描述:一个NameNode挂掉,如何启动另一个NameNode.怎样让两个NameNode数据同步. 实现原理: 在另一台服务器上有一个相同的NameNode节点,这台服务器上的 NameNode的状态为standBy.正在运行的NameNode的状态为Active. 解决两个NameNode信息同步问题:因为如果一个NameNode挂掉,另一个NameNode的edit…
一.文件的打开 1.1.客户端 HDFS打开一个文件,需要在客户端调用DistributedFileSystem.open(Path f, int bufferSize),其实现为: public FSDataInputStream open(Path f, int bufferSize) throws IOException { return new DFSClient.DFSDataInputStream( dfs.open(getPathName(f), bufferSize, verif…
一.查询目录下的文件 1.查询根目录下的文件 Hadoop fs -ls / 2.查询文件夹下的文件 Hadoop fs -ls /input 二.创建文件夹 hadoop fs -mkdir /文件名称 三. 上传本地文件到HDFS中 hadoop fs -put 文件名称 文件名称 /上传位置/ 四.删除文件 hadoop fs -rm /文件名称 五.删除文件夹 hadoop fs -rm -r 文件夹名称 六.从HDFS中复制文件到本地 hadoop fs -get 文件名称 七.查询文…