hadoop-hdfs(三)
HDFS概念
1 数据块*
HDFS的一个数据块默认是64M,与元数据分开管理。
优点:
数据块的大小设计的较大,所以寻址占传输的时间比例较小,只需要计算传输速度即可。
便于简化管理,利于计算剩余空间、冗余备份(默认三个)
与元数据分开管理,保持他本身无属性的特性。
2 nameNode,DataNode*
nameNode:
1 命名空间
2 维护文件系统树(命名空间镜像文件)与目录(编辑日志文件)(本地磁盘)
3 保存每个块的元数据信息
4 维护多个dataNode
备份策略:写入远程磁盘、两个NameNode同时运行
DataNode
1 文件系统的工作节点
2 定期向NameNode发送块列表
3 收到NameNode和Client的调度
3 外部接口
Thrift:Hadoop提供给外部非JAVA语言调用的接口
HTTP:网页监控
FTP:传输文件
4 JAVA接口
1 URL API读取
@Test
public void input1() throws MalformedURLException, IOException {
URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
InputStream in = new URL("hdfs://192.168.1.100:9000/user/sunfan/input/file1.txt").openStream();
byte[] buff = new byte[];
int len;
while (- != (len = in.read(buff))) {
for (int i = ; i < len; i++) {
System.out.print((char) buff[i]);
}
}
in.close();
}
2 FileSystem API 读取FSDatainputStream流的使用(seek方法可以重新定位读取,和inputStream的skip不一样) *
@Test
public void input2() throws MalformedURLException, IOException {
String uri = "hdfs://192.168.1.100:9000/user/sunfan/input/file1.txt";
FileSystem fs = FileSystem.get(URI.create(uri), new Configuration());
FSDataInputStream in = null;
in = fs.open(new Path(uri));
byte[] buff = new byte[];
int len;
while (- != (len = in.read(buff))) {
for (int i = ; i < len; i++) {
System.out.print((char) buff[i]);
}
}
in.seek();
while (- != (len = in.read(buff))) {
for (int i = ; i < len; i++) {
System.out.print((char) buff[i]);
}
}
in.close();
}
写入数据 FSDataOutPutStream
@Test
public void out3() throws IOException {
String uri2 = "hdfs://192.168.1.100:9000/user/sunfan/input/file3.txt";
FileSystem fs = FileSystem.get(URI.create(uri2), new Configuration());
FSDataOutputStream out = fs.create(new Path(uri2));
System.out.println(fs.exists(new Path(uri2)));
out.write();
}
本地文件的复制:注意这里重写Progressable来写进度条,用IOUtils.copy方法来复制
@Test
public void out3() throws IOException {
long start = System.currentTimeMillis();
FileInputStream in = new FileInputStream("C:\\Users\\sunfan\\Desktop\\copy.pdf");
String uri2 = "hdfs://192.168.1.100:9000/user/sunfan/input/file3.txt";
FileSystem fs = FileSystem.get(URI.create(uri2), new Configuration());
FSDataOutputStream out = fs.create(new Path(uri2), new Progressable() {
public void progress() {
System.out.print(".");
}
});
IOUtils.copyBytes(in, out, , true);
System.out.println(System.currentTimeMillis()-start);
}
读取文件的详细信息:通过fs.getFileStatus得到FileStatus
@Test
public void showFilesystem() throws IOException {
String dir = "hdfs://192.168.1.100:9000/user/sunfan/input";
FileSystem fs = FileSystem.get(URI.create("hdfs://192.168.1.100:9000"), new Configuration());
FileStatus status = fs.getFileStatus(new Path(dir));
System.out.println(status.getPermission());
}
读取文件列表:通过fs.listStatus获取FileStatus数组
@Test
public void showFilesystem2() throws IOException {
String dir = "hdfs://192.168.1.100:9000/user/sunfan/input";
FileSystem fs = FileSystem.get(URI.create(dir), new Configuration());
FileStatus[] status = fs.listStatus(new Path("hdfs://192.168.1.100:9000/user/sunfan/input"));
for (FileStatus fileStatus : status) {
System.out.println(fileStatus.getPath());
}
}
用正则读取文件:通过fs.globStatus读取
@Test
public void showFilesystem2() throws IOException {
String dir = "hdfs://192.168.1.100:9000/user/sunfan/input";
FileSystem fs = FileSystem.get(URI.create(dir), new Configuration());
FileStatus[] status = fs.globStatus(new Path("hdfs://192.168.1.100:9000/user/sunfan/input/*"));
for (FileStatus fileStatus : status) {
System.out.println(fileStatus.getPath());
}
}
hadoop-hdfs(三)的更多相关文章
- 马士兵hadoop第三课:java开发hdfs
马士兵hadoop第一课:虚拟机搭建和安装hadoop及启动 马士兵hadoop第二课:hdfs集群集中管理和hadoop文件操作 马士兵hadoop第三课:java开发hdfs 马士兵hadoop第 ...
- Hadoop(三)HDFS读写原理与shell命令
一 HDFS概述 1.1 HDFS产生背景 随着数据量越来越大,在一个操作系统管辖的范围内存不下了,那么就分配到更多的操作系统管理的磁盘中,但是不方便管理和维护,迫切需要一种系统来管理多台机器上的文件 ...
- 马士兵hadoop第三课:java开发hdfs(转)
马士兵hadoop第一课:虚拟机搭建和安装hadoop及启动 马士兵hadoop第二课:hdfs集群集中管理和hadoop文件操作 马士兵hadoop第三课:java开发hdfs 马士兵hadoop第 ...
- 【Hadoop】三、HDFS命令行接口
通过前面对HDFS基本概念.高可用性.数据读写流程的介绍,我们对HDFS已经有了大致的了解.这里我们还需要明确一点:Hadoop作为一个完整的分布式系统,它有一个抽象的文件系统的概念,而我们介绍的 ...
- HADOOP docker(三):HDFS高可用实验
前言1.机器环境2.配置HA2.1 修改hdfs-site.xml2.2 设置core-site.xml3.配置手动HA3.1 关闭YARN.HDFS3.2 启动HDFS HA4.配置自动HA4. ...
- Hadoop HDFS负载均衡
Hadoop HDFS负载均衡 转载请注明出处:http://www.cnblogs.com/BYRans/ Hadoop HDFS Hadoop 分布式文件系统(Hadoop Distributed ...
- Hadoop HDFS编程 API入门系列之简单综合版本1(四)
不多说,直接上代码. 代码 package zhouls.bigdata.myWholeHadoop.HDFS.hdfs4; import java.io.IOException; import ja ...
- Hadoop HDFS (3) JAVA訪问HDFS
如今我们来深入了解一下Hadoop的FileSystem类. 这个类是用来跟Hadoop的文件系统进行交互的.尽管我们这里主要是针对HDFS.可是我们还是应该让我们的代码仅仅使用抽象类FileSyst ...
- Hadoop HDFS分布式文件系统设计要点与架构
Hadoop HDFS分布式文件系统设计要点与架构 Hadoop简介:一个分布式系统基础架构,由Apache基金会开发.用户可以在不了解分布式底层细节的情况下,开发分布式程序.充分利用集群 ...
- hadoop hdfs uri详解
body{ font-family: "Microsoft YaHei UI","Microsoft YaHei",SimSun,"Segoe UI& ...
随机推荐
- matlab中padarray函数在numpy、python中的实现
a = np.arange(6) a = a.reshape((2, 3)) print np.lib.pad(a, 1, 'symmetric') 运行结果: [[ ] [ ] [ ] [ ]]
- R 语言爬虫 之 cnblog博文爬取
Cnbolg Crawl a). 加载用到的R包 ##library packages needed in this case library(proto) library(gsubfn) ## Wa ...
- Linux开发常见问题:GCC:链接器输入文件未使用,因为链接尚未完成
问:我在Linux中运行一个make文件去编译C语言代码,然后得到了如下的错误信息: gcc -Wall -fPIC -DSOLARIS -DXP_UNIX -DMCC_HTTPD -D_ ...
- hadoop中compare函数
在看hadoop 的二次排序的时候,改写了下, 加了第三个参数, 本来以为是在 public int compareTo(IntPair o) { System.out.println(" ...
- HTTP head meta
HTTP(HyperTextTransferProtocol)即超文本传输协议,目前网页传输的的通用协议.HTTP协议采用了请求/响应模型,浏览器或其他客户端发出请求,服务器给与响应.就整个网络资源传 ...
- IE 8 下小心使用console.log()
我们很多情况下会使用console.log() 对代码调试.在chrome下和Firefox下都不会有太大问题,但是在最近我在IE8 下调试时使用了console.log(),就出现一些问题.在IE8 ...
- Java常见加密技术的密钥与加密串长度
Java常见的Java方式 1.Base64编码 2.十六进制(Hex)编码 3.MD消息摘要 4.DES加密 5.3DES加密 6.AES加密 6.RSA加密
- SVProgressHUD–比MBProgressHUD更好用的 iOS进度提示组件
简介 SVProgressHUD是简单易用的显示器,用于指示一个持续进行的任务的进度. 项目主页: SVProgressHUD 最新示例: 点击下载 快速入门 安装 通过Cocoapods pod ' ...
- 一次完整的http请求处理过程
一次完整的HTTP请求需要的7个步骤 HTTP通信机制是在一次完整的HTTP通信过程中,Web浏览器与Web服务器之间将完成下列7个步骤: 1:建立TCP连接 在HTTP工作开始之前,Web浏览器首先 ...
- (三)Swagger配置多项目共用
重构了多个项目后,在联调接口时,查看api会发现Swagger在几个项目可用,有几个不可用,配置都一样,扫描也充分,那问题出在哪里呢?先仔细找了下Docket的源码,发现有这么个方法: /** * P ...