import java.io.IOException;
import java.util.Arrays;
import java.util.Date;
import java.util.Scanner; import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.BlockLocation;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.hdfs.DistributedFileSystem;
import org.apache.hadoop.hdfs.protocol.DatanodeInfo; class TestHDFSFile { // 在hdfs上创建目录
public void CreateFilePath(String hdfspath) throws IOException {
Configuration conf = new Configuration();
FileSystem hdfs = FileSystem.get(conf);
// System.out.println("Upload to " + conf.get("fs.default.name"));
if (hdfs.exists(new Path(hdfspath))) {
System.out.println("文件目录已存在");
} else {
hdfs.mkdirs(new Path(hdfspath));
} // 列出该目录下的所有文件,以便查看
Path parentpath = new Path(hdfspath);
HdfsFileList(parentpath.getParent()); } // 查看某目录下的文件列表
public void HdfsFileList(Path hdfspath) throws IOException {
Configuration conf = new Configuration();
FileSystem hdfs = FileSystem.get(conf);
// System.out.println("Upload to " + conf.get("fs.default.name"));
FileStatus files[] = hdfs.listStatus(hdfspath);
if (files.length == 0) {
System.out.println("该目录下没有任何文件");
} else {
for (FileStatus file : files) {
System.out.println(file.getPath());
}
}
} // 上传本地文件到HDFS
public void UploadFileToHDFS(String localpath, String hdfspath)
throws Exception { Configuration conf = new Configuration();
// conf.addResource(new Path(localPath + "core-site.xml"));
FileSystem hdfs = FileSystem.get(conf);
Path src = new Path(localpath);
Path dst = new Path(hdfspath);
hdfs.copyFromLocalFile(src, dst); // 输出hdfs上目录中的文件列表
HdfsFileList(dst);
} // 创建HDFS文件,并对文件进行些内容
public void CreateFile(String hdfspath) throws Exception {
Configuration conf = new Configuration();
// byte[] buff = "hello world!".getBytes();
Scanner sc = new Scanner(System.in);
System.out.println("请输入一行字符串");
String src = sc.nextLine();// 在控制台获取一行字符串 FileSystem hdfs = FileSystem.get(conf);
Path dst = new Path(hdfspath);
FSDataOutputStream outputStream = null;
try {
outputStream = hdfs.create(dst);
// 将这一行字符串写入文件中
outputStream.writeBytes(src); // write(buff, 0, buff.length);
} catch (Exception e) {
e.printStackTrace(); } finally {
if (outputStream != null) {
outputStream.close();
}
} HdfsFileList(dst.getParent());
} // 重命名HDFS文件 public void RenameFileName(String oldname, String newname) throws Exception { Configuration conf = new Configuration(); FileSystem hdfs = FileSystem.get(conf);
// Path dst = new Path(hdfspath); Path frpath = new Path(oldname);
Path topath = new Path(newname); hdfs.rename(frpath, topath); HdfsFileList(topath.getParent());
} // 刪除HDFS文件或目录
public void DelHDFSFiles(String hdfspath) throws Exception { Configuration conf = new Configuration(); FileSystem hdfs = FileSystem.get(conf);
// Path dst = new Path(hdfspath); Path topath = new Path(hdfspath);
if(!hdfs.exists(topath)){
System.out.println("文件不存在");
return ;
} boolean ok = hdfs.delete(topath, true);
System.out.println(ok ? "删除成功" : "删除失败"); HdfsFileList(topath.getParent());
} // 查看HDFS文件或文件夹里所有文件的最后修改时间
public void GetFileModifyTime(String hdfspath) throws Exception { Configuration conf = new Configuration(); FileSystem hdfs = FileSystem.get(conf);
Path dst = new Path(hdfspath); FileStatus files[] = hdfs.listStatus(dst);
for (FileStatus file : files) {
/*
* System.out.println(file.getPath() + "\t" +
* file.getModificationTime());
*/ System.out.println(file.getPath() + "\t"
+ new Date(file.getModificationTime())); }
} // 查看HDFS文件是否存在
public boolean IsExists(String hdfspath) throws Exception { Configuration conf = new Configuration(); FileSystem hdfs = FileSystem.get(conf);
Path dst = new Path(hdfspath); boolean ok = hdfs.exists(dst);
System.out.println(ok ? "文件存在" : "文件不存在");
return ok;
} // 查看某个文件在HDFS集群的位置
public void FileBlockLocation(String hdfspath) throws Exception { Configuration conf = new Configuration(); FileSystem hdfs = FileSystem.get(conf);
Path dst = new Path(hdfspath); FileStatus fileStatus = hdfs.getFileStatus(dst);
BlockLocation[] blockLocations = hdfs.getFileBlockLocations(fileStatus,
0, fileStatus.getLen());
for (BlockLocation block : blockLocations) {
System.out.println(Arrays.toString(block.getHosts()) + "\t"
+ Arrays.toString(block.getNames()) + "\t"
+ block.getLength());
}
} // 获取HDFS集群上所有节点名称
public void GetHostName() throws Exception { Configuration conf = new Configuration(); DistributedFileSystem hdfs = (DistributedFileSystem) FileSystem
.get(conf);
DatanodeInfo[] dataNodeStats = hdfs.getDataNodeStats(); for (DatanodeInfo dataNode : dataNodeStats) {
System.out.println(dataNode.getHostName() + "\t"
+ dataNode.getName());
}
}
}

  

HDFS中Java的API使用测试的更多相关文章

  1. HDFS中JAVA API的使用

    HDFS中JAVA API的使用   HDFS是一个分布式文件系统,既然是文件系统,就可以对其文件进行操作,比如说新建文件.删除文件.读取文件内容等操作.下面记录一下使用JAVA API对HDFS中的 ...

  2. 大数据(5) - HDFS中的常用API操作

    一.安装java 二.IntelliJ IDEA(2018)安装和破解与初期配置 参考链接 1.进入官网下载IntelliJ IDEA https://www.jetbrains.com/idea/d ...

  3. [转]HDFS中JAVA API的使用

    HDFS是一个分布式文件系统,既然是文件系统,就可以对其文件进行操作,比如说新建文件.删除文件.读取文件内容等操作.下面记录一下使用JAVA API对HDFS中的文件进行操作的过程. 对分HDFS中的 ...

  4. hadoop系列二:HDFS文件系统的命令及JAVA客户端API

    转载请在页首明显处注明作者与出处 一:说明 此为大数据系列的一些博文,有空的话会陆续更新,包含大数据的一些内容,如hadoop,spark,storm,机器学习等. 当前使用的hadoop版本为2.6 ...

  5. Hadoop(五):HDFS的JAVA API基本操作

    HDFS的JAVA API操作 HDFS在生产应用中主要是客户端的开发,其核心步骤是从HDFS提供的api中构造一个HDFS的访问客户端对象,然后通过该客户端对象操作(增删改查)HDFS上的文件. 主 ...

  6. 使用HDFS客户端java api读取hadoop集群上的信息

    本文介绍使用hdfs java api的配置方法. 1.先解决依赖,pom <dependency> <groupId>org.apache.hadoop</groupI ...

  7. HDFS的Java API

    HDFS Java API 可以用于任何Java程序与HDFS交互,该API使我们能够从其他Java程序中利用到存储在HDFS中的数据,也能够使用其他非Hadoop的计算框架处理该数据 为了以编程方式 ...

  8. Hadoop之HDFS(三)HDFS的JAVA API操作

    HDFS的JAVA API操作 HDFS 在生产应用中主要是客户端的开发,其核心步骤是从 HDFS 提供的 api中构造一个 HDFS 的访问客户端对象,然后通过该客户端对象操作(增删改查)HDFS ...

  9. Java日期时间API系列13-----Jdk8中java.time包中的新的日期时间API类,时间类转换,Date转LocalDateTime,LocalDateTime转Date等

    从前面的系列博客中可以看出Jdk8中java.time包中的新的日期时间API类设计的很好,但Date由于使用仍非常广泛,这就涉及到Date转LocalDateTime,LocalDateTime转D ...

随机推荐

  1. 8 个最棒的 .NET 开发相关工具

    本文向你介绍 8 款跟 .NET 开发相关的一些工具. 1) Open Source – Sharp Develop SharpDevelop是一个用于开发C#或者VB.NET项目而设计的一个编辑器, ...

  2. Python—模块

    一.模块 模块,是用一堆代码实现了某个功能的代码集合,模块分为三种:自定义模块(自己定义).内置模块(python自带).开源模块 导入模块 (1).导入一个py文件,解释器解释该py文件 (2).导 ...

  3. HDU 5685:2016"百度之星" - 资格赛 Problem A

    原文链接:https://www.dreamwings.cn/hdu5685/2637.html Problem A Time Limit: 2000/1000 MS (Java/Others)    ...

  4. 错误,这个如何解决呢?内存溢出的问提。把JAVA_OPTS="-server -XX:PermSize=64M -XX:MaxPermSize=128m 还是不行

    java.lang.OutOfMemoryError: PermGen space at java.lang.ClassLoader.defineClass1(Native Method) at ja ...

  5. ContentProvider总结

    一.使用ContentProvider(内容提供者)共享数据 ContentProvider在android中的作用是对外共享数据,也就是说你可以通过ContentProvider把应用中的数据共享给 ...

  6. 编译android源码官方教程(6)编译内核

    Building Kernels IN THIS DOCUMENT Selecting a kernel Identifying kernel version Downloading sources ...

  7. Oracle子查询(嵌套查询)

    概念: 所谓子查询,即一个select语句中嵌套了另外的一个或者多个select语句 需求:查找和Smith同部门的所有员工的id和last_name 目标: 员工id,last_name from: ...

  8. DAL、DAO、ORM、Active Record辨析

    转自:http://blog.csdn.net/suiye/article/details/7824943 模型 Model 模型是MVC中的概念,指的是读取数据和改变数据的操作(业务逻辑).一开始我 ...

  9. Code First Migrations更新数据库结构(数据迁移)

    背景 code first起初当修改model后,要持久化至数据库中时,总要把原数据库给删除掉再创建 (DropCreateDatabaseIfModelChanges),此时就会产生一个问题,当我们 ...

  10. 解决打开CHM文件后,右侧空白

    在网上下了一个chm的文件,打开后只有目录,右侧不显示内容. 不知道是文件有问题,还是系统有问题. <ignore_js_op> 右键点击文件–属性 看到 最下面有一个提示 说是这个文件是 ...