一、依赖包maven路径


  1. <!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-client -->
  2. <dependency>
  3. <groupId>org.apache.hadoop</groupId>
  4. <artifactId>hadoop-client</artifactId>
  5. <version>2.7.3</version>
  6. <scope>runtime</scope>
  7. </dependency>

二、针对HDFS文件的操作类HDFSOperate


  1. package com.hdfs.util;
  2. import java.io.BufferedReader;
  3. import java.io.File;
  4. import java.io.FileOutputStream;
  5. import java.io.IOException;
  6. import java.io.InputStreamReader;
  7. import java.io.PrintStream;
  8. import java.net.URI;
  9. import org.apache.hadoop.conf.Configuration;
  10. import org.apache.hadoop.fs.FSDataInputStream;
  11. import org.apache.hadoop.fs.FSDataOutputStream;
  12. import org.apache.hadoop.fs.FileSystem;
  13. import org.apache.hadoop.fs.Path;
  14. import org.apache.hadoop.io.IOUtils;
  15. /**
  16. * 针对HDFS文件的操作类
  17. */
  18. public class HDFSOperate {
  19. /**
  20. * 新增(创建)HDFS文件
  21. * @param hdfs
  22. */
  23. public void createHDFS(String hdfs){
  24. try {
  25. Configuration conf = new Configuration();
  26. conf.setBoolean("dfs.support.append", true);
  27. conf.set("dfs.client.block.write.replace-datanode-on-failure.policy","NEVER");
  28. conf.set("dfs.client.block.write.replace-datanode-on-failure.enable","true");
  29. FileSystem fs = FileSystem.get(URI.create(hdfs), conf);
  30. Path path = new Path(hdfs);
  31. //判断HDFS文件是否存在
  32. if(fs.exists(path)){
  33. //System.out.println(hdfs + "已经存在!!!");
  34. }else{
  35. FSDataOutputStream hdfsOutStream = fs.create(new Path(hdfs));
  36. hdfsOutStream.close();
  37. }
  38. fs.close();
  39. } catch (Exception e) {
  40. // TODO: handle exception
  41. e.printStackTrace();
  42. }
  43. }
  44. /**
  45. * 在HDFS文件后面追加内容
  46. * @param hdfs
  47. * @param appendContent
  48. */
  49. public void appendHDFS(String hdfs,String appendContent){
  50. try {
  51. Configuration conf = new Configuration();
  52. conf.setBoolean("dfs.support.append", true);
  53. conf.set("dfs.client.block.write.replace-datanode-on-failure.policy","NEVER");
  54. conf.set("dfs.client.block.write.replace-datanode-on-failure.enable","true");
  55. FileSystem fs = FileSystem.get(URI.create(hdfs), conf);
  56. Path path = new Path(hdfs);
  57. //判断HDFS文件是否存在
  58. if(fs.exists(path)){
  59. //System.out.println(hdfs + "已经存在!!!");
  60. }else{
  61. FSDataOutputStream hdfsOutStream = fs.create(new Path(hdfs));
  62. hdfsOutStream.close();
  63. }
  64. FSDataOutputStream hdfsOutStream = fs.append(new Path(hdfs));
  65. byte [] str = appendContent.getBytes("UTF-8");//防止中文乱码
  66. hdfsOutStream.write(str);
  67. hdfsOutStream.close();
  68. fs.close();
  69. } catch (Exception e) {
  70. // TODO: handle exception
  71. e.printStackTrace();
  72. }
  73. }
  74. /**
  75. * 修改HDFS文件内容 /  删除就是替换为空
  76. * @param hdfs : hdfs文件路径
  77. * @param sourceContent :要修改的hdfs文件内容
  78. * @param changeContent :需要修改成的文件内容
  79. */
  80. public void change(String hdfs,String sourceContent,String changeContent){
  81. try {
  82. Configuration conf = new Configuration();
  83. conf.setBoolean("dfs.support.append", true);
  84. conf.set("dfs.client.block.write.replace-datanode-on-failure.policy","NEVER");
  85. conf.set("dfs.client.block.write.replace-datanode-on-failure.enable","true");
  86. FileSystem fs = FileSystem.get(URI.create(hdfs), conf);
  87. Path path = new Path(hdfs);
  88. //判断HDFS文件是否存在
  89. if(fs.exists(path)){
  90. //System.out.println(hdfs + "已经存在!!!");
  91. FSDataInputStream in = fs.open(path);
  92. BufferedReader bf=new BufferedReader(new InputStreamReader(in));//防止中文乱码
  93. String totalString = "";
  94. String line = null;
  95. while ((line = bf.readLine()) != null) {
  96. totalString += line;
  97. }
  98. String changeString = totalString.replace(sourceContent, changeContent);
  99. FSDataOutputStream hdfsOutStream = fs.create(new Path(hdfs));
  100. byte [] str = changeString.getBytes("UTF-8");
  101. hdfsOutStream.write(str);
  102. hdfsOutStream.close();
  103. }else{
  104. //System.out.println(hdfs + "不存在,无需操作!!!");
  105. }
  106. fs.close();
  107. } catch (Exception e) {
  108. // TODO: handle exception
  109. e.printStackTrace();
  110. }
  111. }
  112. /**
  113. * 判断要追加的内容是否存在
  114. * @param hdfs
  115. * @param appendContent
  116. * @return
  117. */
  118. public Boolean isContentExist(String hdfs,String appendContent){
  119. try {
  120. Configuration conf = new Configuration();
  121. conf.setBoolean("dfs.support.append", true);
  122. conf.set("dfs.client.block.write.replace-datanode-on-failure.policy","NEVER");
  123. conf.set("dfs.client.block.write.replace-datanode-on-failure.enable","true");
  124. FileSystem fs = FileSystem.get(URI.create(hdfs), conf);
  125. Path path = new Path(hdfs);
  126. //判断HDFS文件是否存在
  127. if(fs.exists(path)){
  128. //System.out.println(hdfs + "已经存在!!!");
  129. FSDataInputStream in = fs.open(path);
  130. BufferedReader bf=new BufferedReader(new InputStreamReader(in));//防止中文乱码
  131. String totalString = "";
  132. String line = null;
  133. while ((line = bf.readLine()) != null) {
  134. totalString += line;
  135. }
  136. if(totalString.contains(appendContent)){
  137. return true;
  138. }
  139. }else{
  140. //System.out.println(hdfs + "不存在,无需操作!!!");
  141. }
  142. fs.close();
  143. } catch (Exception e) {
  144. // TODO: handle exception
  145. e.printStackTrace();
  146. }
  147. return false;
  148. }
  149. public static void main(String[] args) throws IOException {
  150. String hdfs = "hdfs://192.168.168.200:9000/test/tes.txt";
  151. HDFSOperate hdfsOperate = new HDFSOperate();
  152. hdfsOperate.createHDFS(hdfs);
  153. hdfsOperate.appendHDFS(hdfs,"测试新增内容");
  154. //hdfsOperate.change(hdfs, "测试新增内容", "测试修改成功");
  155. }
  156. }

Java读写HDFS文件的更多相关文章

  1. Java读写hdfs上的avro文件

    1.通过Java往hdfs写avro文件 import java.io.File; import java.io.IOException; import java.io.OutputStream; i ...

  2. Java读写资源文件类Properties

    Java中读写资源文件最重要的类是Properties 1) 资源文件要求如下: 1.properties文件是一个文本文件 2.properties文件的语法有两种,一种是注释,一种属性配置.  注 ...

  3. Java读写txt文件

    1.Java读取txt文件 1.1.使用FileInputStream: public static String readFile(File file, String charset){ //设置默 ...

  4. Java 读写XML文件 API--org.dom4j

    om4j是一个Java的XML API,类似于jdom,用来读写XML文件的.dom4j是一个十分优秀的JavaXML API,具有性能优异.功能强大和极其易使用的特点,同时它也是一个开放源代码的软件 ...

  5. C++读写EXCEL文件OLE,java读写excel文件POI 对比

    C++读写EXCEL文件方式比较 有些朋友问代码的问题,将OLE读写的代码分享在这个地方,大家请自己看.http://www.cnblogs.com/destim/p/5476915.html C++ ...

  6. java读写excel文件( POI解析Excel)

    package com.zhx.base.utils; import org.apache.poi.hssf.usermodel.HSSFWorkbook; import org.apache.poi ...

  7. Java读写.properties文件实例,解决中文乱码问题

    package com.lxk.propertyFileTest; import java.io.*; import java.util.Properties; /** * 读写properties文 ...

  8. 《Java知识应用》Java读写DBF文件

    1. 准备: Jar包下载:链接: https://pan.baidu.com/s/1Ikxx-vkw5vSDf9SBUQHBCw 提取码: 7h58 复制这段内容后打开百度网盘手机App,操作更方便 ...

  9. java读写大文件

    java读写2G以上的大文件(推荐使用以下方法) static String sourceFilePath = "H:\\DataSource-ready\\question.json&qu ...

随机推荐

  1. Appium环境搭建过程中遇到的问题及解决办法

    一.[Error: Could not detect Mac OS X Version from sw_vers output: '10.12.6'] 解决办法: 1.vi /Applications ...

  2. python 爬虫数据存入csv格式方法

    python 爬虫数据存入csv格式方法 命令存储方式:scrapy crawl ju -o ju.csv 第一种方法:with open("F:/book_top250.csv" ...

  3. foreman源NO_PUBKEY 6F8600B9563278F6

    /etc/apt/sources.list.d/foreman.list # foreman deb http://deb.theforeman.org xenial stable 一条命令解决 ap ...

  4. java中高级

    面试问题: 一.Java基础方面: 1.Java面相对象的思想的理解(主要是多态): http://blog.csdn.net/zhaojw_420/article/details/70477636 ...

  5. Java使用HttpClient上传文件

    Java可以使用HttpClient发送Http请求.上传文件等,非常的方便 Maven <dependency> <groupId>org.apache.httpcompon ...

  6. POJ 2234 Matches Game(Nim博弈裸题)

    Description Here is a simple game. In this game, there are several piles of matches and two players. ...

  7. ES6 箭头函数--特性

    如果箭头表达式仅仅就是简化了函数的命名,我们为什么要改变原来的习惯而去使用它呢?所以我们需要了解一下箭头函数的特性. 箭头函数内部没有constructor方法,也没有prototype,所以不支持n ...

  8. Spring Boot 揭秘与实战(二) 数据存储篇 - MongoDB

    文章目录 1. 环境依赖 2. 数据源 2.1. 方案一 使用 Spring Boot 默认配置 2.2. 方案二 手动创建 3. 使用mongoTemplate操作4. 总结 3.1. 实体对象 3 ...

  9. Python学习笔记第二十二周(前端知识点补充)

    目录: 一.伪类 二.样式 1.字体 2.背景图片 3.margin和padding 4.列表属性 5.float 6.clear 7.position 8.text-decoration(a标签下划 ...

  10. 20165228 2017-2018-2《Java程序设计》课程总结

    20165228 2017-2018-2<Java程序设计>课程总结 每周作业链接汇总 预备作业1:我期望的师生关系 简要内容: 老师能给我在学习中提供什么帮助 我的看法 我期望的师生关系 ...