使用HDFS API的方式来操作HDFS文件系统 IDEA Java 使用Maven来管理项目 先打开IDEA,New Project 创建GAV然后next 默认使用的有idea内置的Maven,可以使用默认的也可以使用自己安装的Maven(看个人喜好Override) 然后next   finish 然后就进入了编译器页面,编译器自己在创建,有一些依赖在自动下载,需要等!!!(我的网速等了我半个多小时,卡到发指) 解决IDEA创建Maven项目卡到发指===>https://www.cnbl…
接着之前继续API操作的学习 CopyFromLocalFile: 顾名思义,从本地文件拷贝 /** * 使用Java API操作HDFS文件系统 * 关键点: * 1)create Configuration * 2)get FileSystem * 3)...It's your HDFS API operation. */ public class HDFSApp { public static final String HDFS_PATH = "hdfs://hadoop000:8020&…
首先,重点重复重复再重复: /** * 使用Java API操作HDFS文件系统 * 关键点: * 1)创建 Configuration * 2)获取 FileSystem * 3)...剩下的就是 HDFS API的操作了*/ 回顾:https://www.cnblogs.com/Liuyt-61/p/10737466.html 先上代码(注意包不要导错了): public class HDFSApp { public static final String HDFS_PATH = "hdfs…
首先:什么是jUnit  回顾: https://www.cnblogs.com/Liuyt-61/p/10374732.html 上一节我们知道: /** * 使用Java API操作HDFS文件系统 * 关键点: * 1)创建 Configuration * 2)获取 FileSystem * 3)...剩下的就是HDFS API的操作了 */ 回顾:https://www.cnblogs.com/Liuyt-61/p/10737466.html 先上代码: public class HDF…
/** * 使用Java API操作HDFS文件系统 * 关键点: * 1)创建 Configuration * 2)获取 FileSystem * 3)...剩下的就是 HDFS API的操作了*/ 先上代码 public class HDFSApp { public static void main(String[] args) throws Exception { Configuration configuration = new Configuration(); FileSystem f…
使用hadoop命令:hadoop fs -ls /hdfsapi/test  我们能够查看HDFS文件系统/hdfsapi/test目录下的所有文件信息 那么使用代码怎么写呢?直接先上代码:(这之后贴上去的代码怎么就全灰色了?....) public class HDFSApp {     public static final String HDFS_PATH = "hdfs://hadoop000:8020";    FileSystem fileSystem = null;  …
上一节我们使用Java API操作HDFS文件系统创建了文件a.txt并写入了hello hadoop(回顾:https://www.cnblogs.com/Liuyt-61/p/10739018.html) 我们在终端控制台上使用hadoop fs -ls /hdfsapi/test查看a.txt文件是否创建成功的时候有没有发现一个问题. [hadoop@hadoop000 ~]$ hadoop fs -ls /hdfsapi/test Found 1 items -rw-r--r-- 3 h…
现在我们把文件都存在HDFS文件系统之上,现在有一个jdk.zip文件存储在上面,我们想知道这个文件在哪些节点之上?切成了几个块?每个块的大小是怎么样?先上测试类代码: /** * 查看文件块信息 * @throws Exception */ @Test public void getFileBlockLocations() throws Exception{ FileStatus fileStatus = fileSystem.getFileStatus(new Path("/hdfsapi/…