大数据学习之HDFS基本API操作(上)06
package it.dawn.HDFSPra; import java.io.FileNotFoundException;
import java.io.IOException;
import java.net.URI;
import java.net.URISyntaxException;
import java.util.Arrays; import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.LocatedFileStatus;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.fs.RemoteIterator;
import org.junit.Before;
import org.junit.Test; /**
* @version 1.0
* @author Dawn
* @since 2019年4月27日22:42:32
*
* 注意:1.需要配置hadoop环境
* 2.需要编译好的winutil包
*/
public class HdfsClientDemo01 { public static FileSystem fs=null;
public static String hdfs="hdfs://192.168.40.11:9000"; //初始化加载
@Before
public void init() throws IOException, InterruptedException, URISyntaxException
{
System.setProperty("hadoop.home.dir", "E:\\hadoop2.7.3\\hadoop-2.7.3");
// 1.加载配置
Configuration conf= new Configuration();
// 2.设置副本数 默认3块
conf.set("dfs.replication", "2");
// 3.设置块大小 默认128m
conf.set("dfs.blocksize", "64m");
// 4.构造客户端
fs=FileSystem.get(new URI(hdfs), conf, "root");
} /*
* 上传文件
* hdfs dfs -put /文件名 /hdfs目录
*/
@Test
public void hdfsUpData() throws IllegalArgumentException, IOException
{
//上传文件
fs.copyFromLocalFile(new Path("f:/temp/xxx.txt"), new Path("/"));
//2.关闭资源
fs.close();
} /*
* 下载文件
* hdfs dfs -get /hdfs文件 /文件目录
*/
@Test
public void hdfsDownload() throws IllegalArgumentException, IOException {
//下载文件
fs.copyToLocalFile(new Path("/xxx.txt"), new Path("f:/")); fs.close();
} /*
* 1:在hdfs中创建文件夹
* hdfs dfs -mkdir /文件名
*/
@Test
public void hdfsMkdir() throws IllegalArgumentException, IOException
{
//1.调用创建文件夹方法
fs.mkdirs(new Path("/dawn/ss"));
System.out.println("创建成功");
//2.关闭资源
fs.close();
} /*
* 2:在hdfs中 移动/修改 文件
* 相当于Ctrl+x
*/
@Test
public void hdfsRename() throws IllegalArgumentException, IOException
{
//1.调用移动并修改
fs.rename(new Path("/test/a.txt"), new Path("/dawn/renamea.txt"));
//2.关闭资源
fs.close();
} /*
* 3:在hdfs中删除文件夹
* hdfs dfs -rm -r /
*/
@Test
public void hdfsRm() throws IllegalArgumentException, IOException
{
//fs.delete(new Path("/hunterhenshuai"));
//1.调用删除文件方法 参数1:删除的路径 参数2:是否递归删除
fs.delete(new Path("/test"), true);
fs.close(); } /*
* 4:查询hdfs下制定的目录信息
*/
@Test
public void hdfsLs() throws FileNotFoundException, IllegalArgumentException, IOException
{
//1.调用方法 返回远程迭代器
RemoteIterator<LocatedFileStatus> iter=fs.listFiles(new Path("/dawn"), true); //2.取迭代器数据
while(iter.hasNext())
{
//拿数据
LocatedFileStatus status=iter.next(); System.out.println("文件路径为:"+status.getPath());
System.out.println("块大小为:"+status.getBlockSize() / (1024*1024) );
System.out.println("文件长度:"+ status.getLen());
System.out.println("副本数量为:"+status.getReplication());
System.out.println("块信息为:"+Arrays.asList(status.getBlockLocations())); System.out.println("============================>");
} //3.关闭资源
fs.close(); } /*
* 5:判断文件还是文件夹
*/
@Test
public void findIsFOrD() throws FileNotFoundException, IllegalArgumentException, IOException {
//1.展示状态信息
FileStatus[] listStatus = fs.listStatus(new Path("/")); //2.遍历所有文件
for(FileStatus ls:listStatus) {
if(ls.isFile()) {
//文件
System.out.println("文件----f----" +ls.getPath().getName());
}else {
//文件夹
System.out.println("文件夹----d----" +ls.getPath().getName());
}
}
} }
大数据学习之HDFS基本API操作(上)06的更多相关文章
- 大数据学习之HDFS基本API操作(下)06
hdfs文件流操作方法一: package it.dawn.HDFSPra; import java.io.BufferedReader; import java.io.FileInputStream ...
- 大数据学习之HDFS基本命令操作05
1)hdfs的客户端 1.网页形式->测试用 http://192.168.40.11:50070/dfshealth.html#tab-overview 2.命令行形式->测试用 3.企 ...
- 大数据学习之hdfs集群安装部署04
1-> 集群的准备工作 1)关闭防火墙(进行远程连接) systemctl stop firewalld systemctl -disable firewalld 2)永久修改设置主机名 vi ...
- 大数据学习笔记——HDFS写入过程源码分析(1)
HDFS写入过程方法调用逻辑 & 源码注释解读 前一篇介绍HDFS模块的博客中,我们重点从实践角度介绍了各种API如何使用以及IDEA的基本安装和配置步骤,而从这一篇开始,将会正式整理HDFS ...
- 大数据学习笔记——HDFS写入过程源码分析(2)
HDFS写入过程注释解读 & 源码分析 此篇博客承接上一篇未讲完的内容,将会着重分析一下在Namenode获取到元数据后,具体是如何向datanode节点写入真实的数据的 1. 框架图展示 在 ...
- 大数据学习笔记——HDFS理论知识之编辑日志与镜像文件
HDFS文件系统——编辑日志和镜像文件详细介绍 我们知道,启动Hadoop之后,在主节点下会产生Namenode,即名称节点进程,该节点的目录下会保存一份元数据,用来记录文件的索引,而在从节点上即Da ...
- 大数据学习之HDFS的工作机制07
1:namenode+secondaryNameNode工作机制 2:datanode工作机制 3:HDFS中的通信(代理对象RPC) 下面用代码来实现基本的原理 1:服务端代码 package it ...
- 大数据学习笔记——Hadoop编程实战之HDFS
HDFS基本API的应用(包含IDEA的基本设置) 在上一篇博客中,本人详细地整理了如何从0搭建一个HA模式下的分布式Hadoop平台,那么,在上一篇的基础上,我们终于可以进行编程实操了,同样,在编程 ...
- 大数据学习路线,来qun里分享干货,
一.Linux lucene: 全文检索引擎的架构 solr: 基于lucene的全文搜索服务器,实现了可配置.可扩展并对查询性能进行了优化,并且提供了一个完善的功能管理界面. 推荐一个大数据学习群 ...
随机推荐
- java动态代理源码解析
众所周知,java动态代理同反射原理一直是许多框架的底层实现,之前一直没有时间来分析动态代理的底层源码,现结合源码分析一下动态代理的底层实现 类和接口 java动态代理的主要类和接口有:java.la ...
- Java基础--常见计算机编码类型
计算机编码指电脑内部代表字母或数字的方式,常见的编码方式有:ASCII编码,GB2312编码(简体中文),GBK,BIG5编码(繁体中文),ANSI编码,Unicode,UTF-8编码等. 1.ASC ...
- IIS 常用命令
Ø 简介 本文主要介绍 IIS 常用的命令,主要包含以下内容: 1. IIS 重启方法 2. 站点重启方法 3. 应用程序池重启方法 1. IIS 重启方法 1) 重启 IIS ...
- 课程设计个人报告——基于ARM实验箱的捕鱼游戏的设计与实现
课程设计个人报告--基于ARM实验箱的捕鱼游戏的设计与实现 一.个人贡献 参与课设题目讨论及部分过程 资料收集 负责代码调试 捕鱼游戏相应功能的实现 实验环境 Eclipse软件开发环境: ARM实验 ...
- GDB程序调试工具
GDB程序调试工具 GDB主要完成下面三个方面的功能: 启动被调试程序 让被调试程序在指定的位置停住 当程序被停住时,可以检查程序状态 GDB快速入门 编译生成可执行文件 gcc -g test.c ...
- 第十三届东北师范大学程序设计竞赛热身赛 C(exgcd+欧拉函数)
题目链接 思路 对于答案,我们考虑对于每个可行的$c$会和多少$d$产生合法序偶.首先证明$c$和$b$必然互质. 假设$c$和$b$不互质,那么设$t_{1}=gcd(c, b),(t_{1} &g ...
- python 去除html 超链接href 如何实现?
今天持久男 在抓取数据的时候发现很多内容都加了锚文本, 这怎么办呢? 没办法只能通过工具解决 我是这样解决的: 例如: soup = BeautifulSoup('<p>Hello < ...
- (Linux)初探cmake .和make命令
cmake编译OpenCV工程 首先我们看到文件夹中有一cpp文件,CMakeLists.txt文件和一张图片 首先进行cmake .命令 接着进行make命令 . 然后就得到了可执行文件,也就是说可 ...
- 我们来说说self.setinterval
学了js的你,肯定知道setInterval方法是按照指定的周期(以毫秒计)来调用函数或计算表达,setInterval方法会不停地调用函数,直到clearInterval被调用或窗口被关闭,这个se ...
- Loading class `com.mysql.jdbc.Driver'. The new driver class is `com.mysql.cj.jdb 问题
是因为最新的数据库驱动的原因,用较早的版本就可以了. <dependency> <groupId>mysql</groupId> <artifactId> ...