HDFS客户端操作(JAVA代码)
环境准备
windows需要配置hadoop的windows下的依赖
安装包地址:
链接:https://pan.baidu.com/s/1QtbH-x-S0QytkmaoSosdEw
提取码:2ktw
将安装包解压至自己所选择的目录,然后配置环境变量:
HADOOP_HOME : 解压的目录
PATH后新增:%HADOOP_HOME%\bin
maven所需依赖
新建Maven项目,添加以下依赖:
<dependency>
<groupId>junit</groupId>
<artifactId>junit</artifactId>
<version>4.12</version>
</dependency>
<dependency>
<groupId>org.apache.logging.log4j</groupId>
<artifactId>log4j-slf4j-impl</artifactId>
<version>2.12.0</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-client</artifactId>
<version>3.1.3</version>
</dependency>
实际操作
实际操作前先讲所需要的对象设为全局变量,方便今后操作:
private URI uri;
private Configuration configuration;
private String user;
private FileSystem fileSystem;
使用@Before注释的函数,可以在@Test注释下的函数运行前执行,可以进行对象的初始化:
@Before
public void init() throws IOException, InterruptedException {
uri = URI.create("hdfs://hadoop100:8020");
configuration = new Configuration();
user = "nevesettle";
fileSystem = FileSystem.get(uri,configuration,user);
}
@After则相反
@After
public void closeFs() throws IOException {
fileSystem.close();
}
文件上传
/**
* 上传文件
* @throws IOException
*/
@Test
public void uploadFile() throws IOException {
fileSystem.copyFromLocalFile(false,false,
new Path("D:\\Program files\\QQ\\QQ Data\\794133319\\FileRecv\\资源集合.txt"),
new Path("/"));
}
使用的函数为:
copyFromLocalFile(boolean delSrc, boolean overwrite,Path src, Path dst)
- delSrc:是否删除源文件
- overwrite:目标地址有相同文件是否覆盖
- src:源文件地址
- dst:目标文件地址
文件下载
/**
* 文件下载
* @throws IOException
* @throws InterruptedException
*/
@Test
public void downFile() throws IOException {
fileSystem.copyToLocalFile(false,
new Path("/资源集合.txt"),
new Path("d:\\"),
true);
}
使用的函数为:
copyToLocalFile(boolean delSrc, Path src, Path dst,boolean useRawLocalFileSystem)
- delSrc:是否删除源文件
- src:源文件地址
- dst:目标文件地址
- useRawLocalFileSystem:是否进行文件传输校验(CRC校验)
文件更名及移动位置
/**
* 文件名字修改
* @throws IOException
* @throws InterruptedException
*/
@Test
public void updateFile() throws IOException {
fileSystem.rename(new Path("/资源集合.txt"),
new Path("/资源.txt"));
}
使用的函数为:
rename(Path src, Path dst)
- src:源文件
- dst:目标文件
- 前后目录相同,文件名不同,则是修改文件名
- 前后目录不同,文件名相同,则是修改目录
- 前后目录和文件名都不同,则是移动位置并修改文件名
文件删除
/**
* 文件删除
* @throws IOException
* @throws InterruptedException
*/
@Test
public void deleteFile() throws IOException {
fileSystem.delete(new Path("/资源.txt"),false);
}
使用的函数为:
delete(Path f, boolean recursive)
- f:删除的文件或目录地址
- recursive:是否递归删除
- 当要删除的为文件是,递归删除为false
- 当要删除的是目录且为空时,递归删除为false
- 当要删除的是目录且不为空,则递归删除为true
IO流的文件上传
/**
* IO流的文件上传
* @throws IOException
* @throws InterruptedException
*/
@Test
public void uploadFileByIO() throws IOException {
//源文件地址
String srcFilePath = "D:\\资源集合.txt";
//目标文件地址
String destFilePath = "/资源集合.txt";
//输入流
FileInputStream fis = new FileInputStream(new File(srcFilePath));
//通过hdfs封装的方法获取输出流
FSDataOutputStream fos = fileSystem.create(new Path(destFilePath));
//最原始的方法
// int i = 0;
// while ( ( i = fis.read()) != -1 ){
// fot.write(i);
// }
//hdfs封装的方法
IOUtils.copyBytes(fis,fos,configuration);
//关闭IO流
IOUtils.closeStream(fis);
IOUtils.closeStream(fos);
}
- IOUtils 使用时注意要使用hadoop的包,不要使用错了
- configuration 为我们的全局变量,即配置
IO流的文件下载
/**
* IO流的文件下载
* @throws IOException
* @throws InterruptedException
*/
@Test
public void downFileByIO() throws IOException {
//源文件
String srcFilePath = "/资源集合.txt";
//目标文件
String destFilePath = "d:\\资源.txt";
//获得输入流
FSDataInputStream fis = fileSystem.open(new Path(srcFilePath));
//获得输出流
FileOutputStream fos = new FileOutputStream(new File(destFilePath));
//传输
IOUtils.copyBytes(fis,fos,configuration);
//关闭
IOUtils.closeStream(fis);
IOUtils.closeStream(fos);
}
HDFS客户端操作(JAVA代码)的更多相关文章
- Hadoop JAVA HDFS客户端操作
JAVA HDFS客户端操作 通过API操作HDFS org.apache.logging.log4jlog4j-core2.8.2org.apache.hadoophadoop-common${ha ...
- 大数据之路week07--day01(HDFS学习,Java代码操作HDFS,将HDFS文件内容存入到Mysql)
一.HDFS概述 数据量越来越多,在一个操作系统管辖的范围存不下了,那么就分配到更多的操作系统管理的磁盘中,但是不方便管理和维护,因此迫切需要一种系统来管理多台机器上的文件,这就是分布式文件管理系统 ...
- Hadoop之HDFS客户端操作
1. HDFS 客户端环境准备 1.1 windows 平台搭建 hadoop 2.8.5 2. 创建Maven工程 # pom.xml <dependencies> <depend ...
- 大数据学习——hdfs客户端操作
package cn.itcast.hdfs; import org.apache.commons.io.IOUtils; import org.apache.hadoop.conf.Configur ...
- 在linux安装redis单机和集群后,如何在windows上使用redis客户端或者java代码访问错误的原因很简单,就是没有连接上redis服务,由于redis采用的安全策略,默认会只准许本地访问。需要通过简单配置,完成允许外网访问。
这几天在学习在linux上搭建服务器的工作,可谓历经艰辛.可喜最后收获也不少. 这次是在linux上搭建redis服务器后从windows上缺无法访问,连接不上. 仔细回忆以前搭建nginx和ftp的 ...
- 完整全面的Java资源库(包括构建、操作、代码分析、编译器、数据库、社区等等)
构建 这里搜集了用来构建应用程序的工具. Apache Maven:Maven使用声明进行构建并进行依赖管理,偏向于使用约定而不是配置进行构建.Maven优于Apache Ant.后者采用了一种过程化 ...
- 在命令提示符窗口下(cmd)使用指令操作并编译java代码,运行java编译代码
使用cmd操作java代码,编译.java文件,运行.class文件. 操作步骤: 1:创建一个文件夹: 例如:在e盘根目录(\)下面创建一个名为Hello的文件夹: 使用md指令:如图 在e盘中会生 ...
- Hadoop系列007-HDFS客户端操作
title: Hadoop系列007-HDFS客户端操作 date: 2018-12-6 15:52:55 updated: 2018-12-6 15:52:55 categories: Hadoop ...
- HDFS的Java客户端操作代码(HDFS的查看、创建)
1.HDFS的put上传文件操作的java代码: package Hdfs; import java.io.FileInputStream; import java.io.FileNotFoundEx ...
随机推荐
- Pandas_分组与聚合
# 分组统计是数据分析中的重要环节: # 1-数据分组:GroupBy的原理和使用方法: # 2-聚合运算:学会分组数据的聚合运算方法和函数使用: 类似于 SQL思想 # 3-分组运算:重点 appl ...
- RoekerMQ4.x可视化控制台安装
1.下载 https://github.com/apache/rocketmq-externals 2.解压文件tar -zxvf rocketmq-externals-master.zip 3.移动 ...
- linux云服务搭建七日杀服务器
目录 准备工作 1.设置swap 2.安装screen 3.安装SteamCmd运行所需环境 4.创建一个用户 steamCMD与七日杀服务器端 1.下载并安装SteamCMD 2.登录steam账号 ...
- 定制ubuntu的时候修改proseed
一个参数的修改 d-i clock-setup/utc-auto boolean false (不用utc) d-i clock-setup/ntp boolean false (不时间同步) d-i ...
- symbol lookup error /usr/lib/x86_64-linux-gnu/libstdc++.so.6错误的解决办法
当出现 $ apt-get: symbol lookup error: /usr/lib/x86_64-linux-gnu/libstdc++.so.6: undefined symbol: _ZNS ...
- 部署sftp服务
部署sftp服务有风险,可能造成ssh无法连接到服务器,因此写个脚本定时覆盖一下,保证ssh可以正常使用. 创建数据目录并赋权,创建账号密码,修改ssh文件. * mkdir /sftp groupa ...
- jdk1.7中hashmap扩容时不会产生死循环
在扩容时 transfer( ) 方法中 newTable 新数组 局部变量 table 旧数组 全局变量 当第一个链表进行while循环时 执行到 e.next = newTable[i]; 时 n ...
- Linux权限位(含特殊权限位s s t) 及chown\chmod命令使用
1.普通权限位 ls –l查看文件的属性 [root@oldboy ~]# ls -l -rw-------. 1 root root 1073 Mar 4 22:08 anaconda-ks.cfg ...
- Elementary OS 使用fcitx安装搜狗词库、搜狗输入法(Linux通用)
刚开始接触Linux的小伙伴可能比较懵逼,我要使用ibus输入法还是fcitx(小企鹅)输入法,其实这两种都不能说是输入法,Linux中输入法的使用是依赖于输入法框架的,其中搜狗输入法和百度输入法都是 ...
- 关于CTFshow中Web入门42-54
0x00前记 终于把学校上学期的期末考试考完了,刚好复习的时候跟着群里的师傅写了ctfshow上Web入门的42-54的题目,其中有很多的坑,但是收获也是很多的,这里做一下总结吧!给自己挖了很多的 ...