HDFS操作--文件上传/创建/删除/查询文件信息
1.上传本地文件到HDFS
//上传本地文件到HDFS
public class CopyFile {
public static void main(String[] args) {
try {
Configuration conf = new Configuration();
String str_src = "/usr/local/myjar/mongo/地图数据/Zhengye_Drive_Testing_Data/solu"
+ "/solu_Yanming_DriveTesting_09-04.16-17.16-27_True_TA.json";
String str_dst = "hdfs://node4:9000/user/hadoop/TestFile.json"; Path src = new Path(str_src); //本地地址
Path dst = new Path(str_dst); //hdfs地址 FileSystem hdfs = dst.getFileSystem(conf);
//FileSystem hdfs = FileSystem.get(URI.create(str_dst),conf); //这样也可以
//伪分布式上面两种都可以,如果直接FileSystem.get(conf),可能出现错误 hdfs.copyFromLocalFile(src, dst);
System.out.println("Upload to "+conf.get("fs.default.name")); FileStatus files[] = hdfs.listStatus(dst);
for(FileStatus file:files){
System.out.println(file.getPath());
}
} catch (IOException e) {
e.printStackTrace();
}
}
}
可能出现的错误 Wrong FS解决方法:
http://blog.csdn.net/kurama_sai/article/details/8604640
http://blog.itpub.net/22846396/viewspace-1119945
2. 在hdfs中创建文件,并写入一行文字
//创建文件,并向文件中写入一行文字
public class CreateFile {
public static void main(String[] args) {
try {
Configuration conf = new Configuration();
byte[] buff = "This is a test line.".getBytes();
String dsf = "hdfs://node4:9000/user/hadoop/Test";
Path pathdsf = new Path(dsf);
FileSystem hdfs = pathdsf.getFileSystem(conf);
FSDataOutputStream outputStream = hdfs.create(pathdsf);
outputStream.write(buff,0,buff.length);
System.out.println("Finish write!");
} catch (IOException e) {
e.printStackTrace();
}
}
}
3.删除文件
Configuration conf = new Configuration();
Path path_del = new Path("hdfs://node4:9000/user/hadoop/Test2");
FileSystem hdfs = path_del.getFileSystem(conf);
boolean isDeleted = hdfs.delete(path_del,false);
//hdfs.delete(path_del,true); //递归删除,如果path_del是一个文件夹,将文件夹以及下面的子文件全删除
System.out.println("delete? " +isDeleted);
4.重命名文件
Configuration conf = new Configuration();
Path path_fr = new Path("hdfs://node4:9000/user/hadoop/Test");
Path path_to = new Path("hdfs://node4:9000/user/hadoop/Test2");
FileSystem hdfs = path_fr.getFileSystem(conf);
boolean isRename = hdfs.rename(path_fr, path_to); //对文件进行重命名
System.out.println("is rename? "+isRename);
5.查看文件以及文件系统的各项信息
Configuration conf = new Configuration();
Path findf = new Path("hdfs://node4:9000/user/hadoop/hadoop.txt");
FileSystem hdfs = findf.getFileSystem(conf); //查看某个HDFS文件是否存在
boolean isExists = hdfs.exists(findf); //查看文件或文件夹是否存在
System.out.println("exists? " + isExists); //查看HDFS文件的属性
FileStatus filestatus = hdfs.getFileStatus(findf);
long modificationTime = filestatus.getModificationTime(); //最后修改时间
System.out.println("Modification time is: "+modificationTime);
long blocksize = filestatus.getBlockSize(); //块大小
System.out.println("Block size is: "+blocksize); //查看某个文件在HDFS集群的位置
BlockLocation[] blkLocations = hdfs.getFileBlockLocations(filestatus, 0, filestatus.getLen());
int blockLen = blkLocations.length;
for(int i = 0 ; i < blockLen ; i++){
String[] hosts = blkLocations[i].getHosts();
System.out.println("block "+i+" location: "+hosts[i]);
} //查看hdfs文件系统的的各项信息
System.out.println("scheme: "+hdfs.getScheme());
System.out.println("used: "+hdfs.getUsed());
System.out.println("canonical service name: "+hdfs.getCanonicalServiceName());
System.out.println("default block size: "+hdfs.getDefaultBlockSize(findf));
输出结果:
exists? true
Modification time is: 1430225267896
Block size is: 134217728
block 0 location: node4
scheme: hdfs
used: 0
canonical service name: 192.168.1.160:9000
default block size: 134217728
6.读取HDFS中的文件内容
下面代码的效果就是Test文件的内容输出
String dsf = "hdfs://node4:9000/user/hadoop/Test";
Configuration conf = new Configuration(); Path pathdsf = new Path(dsf); FileSystem fs = FileSystem.get(URI.create(dsf), conf);
//FileSystem fs = pathdsf.getFileSystem(conf); //这样也可以 FSDataInputStream hdfsInStream = fs.open(pathdsf); byte[] ioBuffer = new byte[1024];
int readLen = hdfsInStream.read(ioBuffer);
while (readLen != -1) {
System.out.write(ioBuffer, 0, readLen);
readLen = hdfsInStream.read(ioBuffer);
}
hdfsInStream.close();
fs.close();
7.获取集群上所有节点的名称
Configuration conf = new Configuration();
Path path = new Path("hdfs://node4:9000/user/hadoop");
FileSystem fs = path.getFileSystem(conf);
DistributedFileSystem dfs = (DistributedFileSystem) fs;
DatanodeInfo[] dataNodeStats = dfs.getDataNodeStats(); String[] names = new String[dataNodeStats.length];
for(int i = 0 ; i < dataNodeStats.length ; i++){
names[i] = dataNodeStats[i].getHostName();
System.out.println("no."+i+", name:"+names[i]);
}
输出的就是节点名称
no.0, name:node4
no.1, name:node3
HDFS操作--文件上传/创建/删除/查询文件信息的更多相关文章
- HTTP文件上传服务器-支持超大文件HTTP断点续传的实现办法
最近由于笔者所在的研发集团产品需要,需要支持高性能的大文件http上传,并且要求支持http断点续传.笔者在以前的博客如何实现支持大文件的高性能HTTP文件上传服务器已经介绍了实现大文件上传的一些基本 ...
- PHP实现单文件、多文件上传 封装 面向对象实现文件上传
文件上传配置 客户端配置 1.表单页面 2.表单的发送方式为post 3.添加enctype = "multipart/form-data" <form action=&qu ...
- SpringBoot - 实现文件上传2(多文件上传、常用上传参数配置)
在前文中我介绍了 Spring Boot 项目如何实现单文件上传,而多文件上传逻辑和单文件上传基本一致,下面通过样例进行演示. 多文件上传 1,代码编写 1)首先在 static 目录中创建一个 up ...
- php 文件上传后缀名与文件类型对照表(几乎涵盖所有文件)
网上有很多php文件上传的类,文件上传处理是php的一个特色(至少手册上是将此作为php特点来展示的,个人认为php在数组方面的优异功能更有特 色),学php的人都知道文件上传怎么做,但很多人在编程中 ...
- django设置并获取cookie/session,文件上传,ajax接收文件,post/get请求及跨域请求等的方法
django设置并获取cookie/session,文件上传,ajax接收文件等的方法: views.py文件: from django.shortcuts import render,HttpRes ...
- SpringMVC ajax技术无刷新文件上传下载删除示例
参考 Spring MVC中上传文件实例 SpringMVC结合ajaxfileupload.js实现ajax无刷新文件上传 Spring MVC 文件上传下载 (FileOperateUtil.ja ...
- Struts2 文件上传,下载,删除
本文介绍了: 1.基于表单的文件上传 2.Struts 2 的文件下载 3.Struts2.文件上传 4.使用FileInputStream FileOutputStream文件流来上传 5.使用Fi ...
- c# txt 文件上传、写入TXT文件、创建图形验证码
asp.net mvc 图片上传 html 在使用包含文件上传控件的表单时,必须使用 enctype="multipart/form-data" 属性 <form encty ...
- 利用Rsync同步工具上传、删除目标文件
Rsync是文件备份工具,当然也可以当做传输工具,管理远程服务器的文件 上传 rsync -avzP --progress --port 9106 /path/.../指定文件 root@192.16 ...
随机推荐
- GitHub 如何基於 Node.js 和 Chromium 開發 Atom?
看到回答里, 多数都没有回答到点子上, 还有些给了非常主观的意见而没有给出实际结论和分析过程. 题主的问题有四个: 1. Github 如何基于 Node.js 和 Chromium 开发 Atom? ...
- ViewConfiguration滑动参数设置类
/** * 包含了方法和标准的常量用来设置UI的超时.大小和距离 */ public class ViewConfiguration { // 设定水平滚动条的宽度和垂直滚动条的高度,单位是像素px ...
- delphi编写dll心得, 谢谢原作者的分享。转
delphi编写dll心得 1.每个函数体(包括exports和非exports函数)后面加 'stdcall;', 以编写出通用的dll2.exports函数后面必须加'export;'(放在'st ...
- 生成excel内存溢出问题的解决方式
常用的excel生成工具包括jxl.poi.但二者都存在一个问题:生成excel需要大量的消耗内存.如果一次性往excel中写入的数据足够的多将导致内存溢出. 1.数据写入excel为什么会大量的消耗 ...
- linux中cat、more、less、tail、head命令
cat命令功能用于显示整个文件的内容单独使用没有翻页功能因此经常和more命令搭配使用,cat命令还有就是将数个文件合并成一个文件的功能. more命令功能:让画面在显示满一页时暂停,此时可按空格健继 ...
- UML[1] UML类图关系(泛化 、继承、实现、依赖、关联、聚合、组合)(转)
转自:http://blog.csdn.net/zhaoxu0312/article/details/7212152 继承.实现.依赖.关联.聚合.组合的联系与区别 分别介绍这几种关系: 继承 指的是 ...
- HTML与CSS简单页面效果实例
本篇博客实现一个HTML与CSS简单页面效果实例 index.html <!DOCTYPE html> <html> <head> <meta charset ...
- Java 实现Md5算法
package other; import java.security.MessageDigest;import java.security.NoSuchAlgorithmException;/* * ...
- java反射--注解的定义与运用以及权限拦截
自定义注解类编写的一些规则: 1. Annotation型定义为@interface, 所有的Annotation会自动继承java.lang.Annotation这一接口,并且不能再去继承别的类或是 ...
- Struts2属性驱动与模型驱动
为什么要使用属性驱动和模型驱动 struts2与struts很大的不同点在于,struts的execute方法提供了HttpServletRequest和HttpServletResponse方法在获 ...