环境准备

windows需要配置hadoop的windows下的依赖

安装包地址:

链接:https://pan.baidu.com/s/1QtbH-x-S0QytkmaoSosdEw

提取码:2ktw

将安装包解压至自己所选择的目录,然后配置环境变量:

HADOOP_HOME : 解压的目录

PATH后新增:%HADOOP_HOME%\bin

maven所需依赖

新建Maven项目,添加以下依赖:

<dependency>
<groupId>junit</groupId>
<artifactId>junit</artifactId>
<version>4.12</version>
</dependency> <dependency>
<groupId>org.apache.logging.log4j</groupId>
<artifactId>log4j-slf4j-impl</artifactId>
<version>2.12.0</version>
</dependency> <dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-client</artifactId>
<version>3.1.3</version>
</dependency>

实际操作

实际操作前先讲所需要的对象设为全局变量,方便今后操作:

private URI uri;
private Configuration configuration;
private String user;
private FileSystem fileSystem;

使用@Before注释的函数,可以在@Test注释下的函数运行前执行,可以进行对象的初始化:

	@Before
public void init() throws IOException, InterruptedException {
uri = URI.create("hdfs://hadoop100:8020");
configuration = new Configuration();
user = "nevesettle";
fileSystem = FileSystem.get(uri,configuration,user);
}

@After则相反

	@After
public void closeFs() throws IOException {
fileSystem.close();
}

文件上传

	/**
* 上传文件
* @throws IOException
*/
@Test
public void uploadFile() throws IOException {
fileSystem.copyFromLocalFile(false,false,
new Path("D:\\Program files\\QQ\\QQ Data\\794133319\\FileRecv\\资源集合.txt"),
new Path("/"));
}

使用的函数为:

copyFromLocalFile(boolean delSrc, boolean overwrite,Path src, Path dst)
  • delSrc:是否删除源文件
  • overwrite:目标地址有相同文件是否覆盖
  • src:源文件地址
  • dst:目标文件地址

文件下载

	/**
* 文件下载
* @throws IOException
* @throws InterruptedException
*/
@Test
public void downFile() throws IOException {
fileSystem.copyToLocalFile(false,
new Path("/资源集合.txt"),
new Path("d:\\"),
true);
}

使用的函数为:

copyToLocalFile(boolean delSrc, Path src, Path dst,boolean useRawLocalFileSystem)
  • delSrc:是否删除源文件
  • src:源文件地址
  • dst:目标文件地址
  • useRawLocalFileSystem:是否进行文件传输校验(CRC校验)

文件更名及移动位置

	/**
* 文件名字修改
* @throws IOException
* @throws InterruptedException
*/
@Test
public void updateFile() throws IOException {
fileSystem.rename(new Path("/资源集合.txt"),
new Path("/资源.txt"));
}

使用的函数为:

rename(Path src, Path dst)
  • src:源文件
  • dst:目标文件
  • 前后目录相同,文件名不同,则是修改文件名
  • 前后目录不同,文件名相同,则是修改目录
  • 前后目录和文件名都不同,则是移动位置并修改文件名

文件删除

	/**
* 文件删除
* @throws IOException
* @throws InterruptedException
*/
@Test
public void deleteFile() throws IOException {
fileSystem.delete(new Path("/资源.txt"),false);
}

使用的函数为:

delete(Path f, boolean recursive)
  • f:删除的文件或目录地址
  • recursive:是否递归删除
  • 当要删除的为文件是,递归删除为false
  • 当要删除的是目录且为空时,递归删除为false
  • 当要删除的是目录且不为空,则递归删除为true

IO流的文件上传

   /**
* IO流的文件上传
* @throws IOException
* @throws InterruptedException
*/
@Test
public void uploadFileByIO() throws IOException {
//源文件地址
String srcFilePath = "D:\\资源集合.txt";
//目标文件地址
String destFilePath = "/资源集合.txt";
//输入流
FileInputStream fis = new FileInputStream(new File(srcFilePath));
//通过hdfs封装的方法获取输出流
FSDataOutputStream fos = fileSystem.create(new Path(destFilePath)); //最原始的方法
// int i = 0;
// while ( ( i = fis.read()) != -1 ){
// fot.write(i);
// } //hdfs封装的方法
IOUtils.copyBytes(fis,fos,configuration); //关闭IO流
IOUtils.closeStream(fis);
IOUtils.closeStream(fos); }
  • IOUtils 使用时注意要使用hadoop的包,不要使用错了
  • configuration 为我们的全局变量,即配置

IO流的文件下载

	/**
* IO流的文件下载
* @throws IOException
* @throws InterruptedException
*/
@Test
public void downFileByIO() throws IOException { //源文件
String srcFilePath = "/资源集合.txt"; //目标文件
String destFilePath = "d:\\资源.txt"; //获得输入流
FSDataInputStream fis = fileSystem.open(new Path(srcFilePath)); //获得输出流
FileOutputStream fos = new FileOutputStream(new File(destFilePath)); //传输
IOUtils.copyBytes(fis,fos,configuration); //关闭
IOUtils.closeStream(fis);
IOUtils.closeStream(fos); }

HDFS客户端操作(JAVA代码)的更多相关文章

  1. Hadoop JAVA HDFS客户端操作

    JAVA HDFS客户端操作 通过API操作HDFS org.apache.logging.log4jlog4j-core2.8.2org.apache.hadoophadoop-common${ha ...

  2. 大数据之路week07--day01(HDFS学习,Java代码操作HDFS,将HDFS文件内容存入到Mysql)

    一.HDFS概述 数据量越来越多,在一个操作系统管辖的范围存不下了,那么就分配到更多的操作系统管理的磁盘中,但是不方便管理和维护,因此迫切需要一种系统来管理多台机器上的文件,这就是分布式文件管理系统 ...

  3. Hadoop之HDFS客户端操作

    1. HDFS 客户端环境准备 1.1 windows 平台搭建 hadoop 2.8.5 2. 创建Maven工程 # pom.xml <dependencies> <depend ...

  4. 大数据学习——hdfs客户端操作

    package cn.itcast.hdfs; import org.apache.commons.io.IOUtils; import org.apache.hadoop.conf.Configur ...

  5. 在linux安装redis单机和集群后,如何在windows上使用redis客户端或者java代码访问错误的原因很简单,就是没有连接上redis服务,由于redis采用的安全策略,默认会只准许本地访问。需要通过简单配置,完成允许外网访问。

    这几天在学习在linux上搭建服务器的工作,可谓历经艰辛.可喜最后收获也不少. 这次是在linux上搭建redis服务器后从windows上缺无法访问,连接不上. 仔细回忆以前搭建nginx和ftp的 ...

  6. 完整全面的Java资源库(包括构建、操作、代码分析、编译器、数据库、社区等等)

    构建 这里搜集了用来构建应用程序的工具. Apache Maven:Maven使用声明进行构建并进行依赖管理,偏向于使用约定而不是配置进行构建.Maven优于Apache Ant.后者采用了一种过程化 ...

  7. 在命令提示符窗口下(cmd)使用指令操作并编译java代码,运行java编译代码

    使用cmd操作java代码,编译.java文件,运行.class文件. 操作步骤: 1:创建一个文件夹: 例如:在e盘根目录(\)下面创建一个名为Hello的文件夹: 使用md指令:如图 在e盘中会生 ...

  8. Hadoop系列007-HDFS客户端操作

    title: Hadoop系列007-HDFS客户端操作 date: 2018-12-6 15:52:55 updated: 2018-12-6 15:52:55 categories: Hadoop ...

  9. HDFS的Java客户端操作代码(HDFS的查看、创建)

    1.HDFS的put上传文件操作的java代码: package Hdfs; import java.io.FileInputStream; import java.io.FileNotFoundEx ...

随机推荐

  1. Pandas_分组与聚合

    # 分组统计是数据分析中的重要环节: # 1-数据分组:GroupBy的原理和使用方法: # 2-聚合运算:学会分组数据的聚合运算方法和函数使用: 类似于 SQL思想 # 3-分组运算:重点 appl ...

  2. RoekerMQ4.x可视化控制台安装

    1.下载 https://github.com/apache/rocketmq-externals 2.解压文件tar -zxvf rocketmq-externals-master.zip 3.移动 ...

  3. linux云服务搭建七日杀服务器

    目录 准备工作 1.设置swap 2.安装screen 3.安装SteamCmd运行所需环境 4.创建一个用户 steamCMD与七日杀服务器端 1.下载并安装SteamCMD 2.登录steam账号 ...

  4. 定制ubuntu的时候修改proseed

    一个参数的修改 d-i clock-setup/utc-auto boolean false (不用utc) d-i clock-setup/ntp boolean false (不时间同步) d-i ...

  5. symbol lookup error /usr/lib/x86_64-linux-gnu/libstdc++.so.6错误的解决办法

    当出现 $ apt-get: symbol lookup error: /usr/lib/x86_64-linux-gnu/libstdc++.so.6: undefined symbol: _ZNS ...

  6. 部署sftp服务

    部署sftp服务有风险,可能造成ssh无法连接到服务器,因此写个脚本定时覆盖一下,保证ssh可以正常使用. 创建数据目录并赋权,创建账号密码,修改ssh文件. * mkdir /sftp groupa ...

  7. jdk1.7中hashmap扩容时不会产生死循环

    在扩容时 transfer( ) 方法中 newTable 新数组 局部变量 table 旧数组 全局变量 当第一个链表进行while循环时 执行到 e.next = newTable[i]; 时 n ...

  8. Linux权限位(含特殊权限位s s t) 及chown\chmod命令使用

    1.普通权限位 ls –l查看文件的属性 [root@oldboy ~]# ls -l -rw-------. 1 root root 1073 Mar 4 22:08 anaconda-ks.cfg ...

  9. Elementary OS 使用fcitx安装搜狗词库、搜狗输入法(Linux通用)

    刚开始接触Linux的小伙伴可能比较懵逼,我要使用ibus输入法还是fcitx(小企鹅)输入法,其实这两种都不能说是输入法,Linux中输入法的使用是依赖于输入法框架的,其中搜狗输入法和百度输入法都是 ...

  10. 关于CTFshow中Web入门42-54

    0x00前记 ​ 终于把学校上学期的期末考试考完了,刚好复习的时候跟着群里的师傅写了ctfshow上Web入门的42-54的题目,其中有很多的坑,但是收获也是很多的,这里做一下总结吧!给自己挖了很多的 ...