2 weekend110的HDFS的JAVA客户端编写 + filesystem设计思想总结
HDFS的JAVA客户端编写













现在,我们来玩玩,在linux系统里,玩eclipse



或者,
















即,更改图标,成功


这个,别慌。重新换个版本就好,有错误出错是好事。
具体如何下载,我就省略了。直接继续





















这个,肯定是与之前,有重复的,没关系,它会自行覆盖,
就是说,home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib
和,home/hadoop/app/hadoop-2.4.1/share/hadoop/hdfs/lib
有重复的,没关系,它会自行覆盖。

到此,hdfslib下的相关依赖jar包加载完毕。












New是无法new的,只能get和set方法




















本地,java里的那个fileoutputstream。















它不认识hdfs://

希望得到,这样的一个解析,file:///











玩windows下的eclipse去。
总结:其实,创建User Library,如hdfslib,mapreducelib,yarnlib。


如创建hdfslib,则需要
/home/hadoop/app/hadoop-2.4.1/share/hadoop/hdfs/*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/hdfs/lib/*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*
home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*
如创建mapreducelib,则需要
/home/hadoop/app/hadoop-2.4.1/share/hadoop/mapreduce/*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/mapreduce/lib/*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*
home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*
如创建yarnlib,则需要
/home/hadoop/app/hadoop-2.4.1/share/hadoop/yarn/*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/yarn/lib/*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*
home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*
如创建httpfslib,则需要
/home/hadoop/app/hadoop-2.4.1/share/hadoop/httpfs/tomcat/lib*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*
home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*
如创建toolslib,则需要
/home/hadoop/app/hadoop-2.4.1/share/hadoop/tools/lib*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*
home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*
会有重复的,但是,没关系,自己会覆盖。
当然,这只是为了具体分析,在生产中,都是直接导入总包。






































如创建hdfslib,则需要
/home/hadoop/app/hadoop-2.4.1/share/hadoop/hdfs/*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/hdfs/lib/*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*
home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*
如创建mapreducelib,则需要
/home/hadoop/app/hadoop-2.4.1/share/hadoop/mapreduce/*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/mapreduce/lib/*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*
home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*
如创建yarnlib,则需要
/home/hadoop/app/hadoop-2.4.1/share/hadoop/yarn/*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/yarn/lib/*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*
home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*
如创建httpfslib,则需要
/home/hadoop/app/hadoop-2.4.1/share/hadoop/httpfs/tomcat/lib*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*
home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*
如创建toolslib,则需要
/home/hadoop/app/hadoop-2.4.1/share/hadoop/tools/lib*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*
home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*
会有重复的,但是,没关系,自己会覆盖。
当然,这只是为了具体分析,在生产中,都是直接导入总包。













FileSystem是一个抽象类,New是无法new的,只能get和set方法
















这里,有个非常实用的快捷键,














在C盘,新建qingshu.txt






出现错误是好事,

原来是这里,

后经查找资料,是少了个 winutils.exe




这只是个WARN警告而已,不影响运行。

错误是:
java.lang.IllegalArgumentException:Wrong FS:hdfs://weekend110:9000/aa,expected:file:///
解决方案一:就不再写了,是上面的在Linux里解决的那种方法。
将/home/hadoop/app/hadoop-2.4.1/etc/hadoop/core-site.xml
和/home/hadoop/app/hadoop-2.4.1/etc/hadoop/hdfs-site.xml
放到,

解决方案二:





身份报错,windows是administrator,hadoop集群那边是hadoop ,supergroup。


-DHADOOP_USER_NAME=Hadoop

问题在:d:\test.txt这个文件。此文件没有扩展名
解决方法:电脑工具栏-文件夹选项-查看-高级设置:-隐藏已知文件类型的扩展名(勾选去掉-应用-确定)


























解决方案:


解决方案:














比较底层的写法,适合懂原理。
封装好的写法,适合开发。








解决方案:







































快捷键是什么?

我的只能这样














默认是path,养成业务习惯。










等价于,下面































总结,本地文件系统操作很简单,new file即可,
具体的实现是不一样的。但是,上层有一个抽象的文件系统,是Filesystem,为什么这么弄?
是因为Hadoop的文件系统伴随其他的框架结耦合的,我在编程时,只需面向父即抽象,filesystem就可以了,filesystem具体去拿哪个文件系统,我上层不需去管,
你具体是本地文件系统RawLocalFileSystem,那我就可以拿本地文件系统去读啊
你的数据是放在hdfs里面,那我就可以拿DistributedFileSystem去读啊
你的数据是放在S3里面,那我就可以拿S3FileSystem去读啊
你的数据是放在htp服务器里面,,,,,,,都可以。
总而言之,降低耦合度。
Filesystem设计思想总结


也可以这样来,


2 weekend110的HDFS的JAVA客户端编写 + filesystem设计思想总结的更多相关文章
- HDFS的Java客户端编写
总结: 之前在教材上看hdfs的Java客户端编写,只有关键代码,呵呵…….闲话不说,上正文. 1. Hadoop 的Java客户端编写建议在linux系统上开发 2. 可以使用eclipse,ide ...
- 一次失败的尝试hdfs的java客户端编写(在linux下使用eclipse)
一次失败的尝试hdfs的java客户端编写(在linux下使用eclipse) 给centOS安装图形界面 GNOME桌面环境 https://blog.csdn.net/wh211212/artic ...
- 【Hadoop】HDFS的java客户端编写
项目使用了Maven Project 快速进行HDFS 客户端程序测试 客户端操作系统:win10 64位 JDK: 1.7.0_79 开发工具 :Eclipse Luna pom.xml < ...
- 一脸懵逼学习hadoop之HDFS的java客户端编写
1:eclipse创建一个项目,然后导入对应的jar包: 鼠标右击项目,点击properties或者alt+enter快捷键--->java build path--->libraries ...
- day03-hdfs的客户端操作\hdfs的java客户端编程
5.hdfs的客户端操作 客户端的理解 hdfs的客户端有多种形式: 1.网页形式 2.命令行形式 3.客户端在哪里运行,没有约束,只要运行客户端的机器能够跟hdfs集群联网 文件的切块大小和存储的副 ...
- hdfs shell命令及java客户端编写
一. hdfs shell命令 可以通过hadoop fs 查看所有的shell命令及其用法. 传文件到hdfs: hadoop fs -put /home/koushengrui/Downloads ...
- HDFS的Java客户端操作代码(HDFS的查看、创建)
1.HDFS的put上传文件操作的java代码: package Hdfs; import java.io.FileInputStream; import java.io.FileNotFoundEx ...
- HDFS的java客户端操作代码(Windows上面打jar包,提交至linux运行)
1.通过java.net.URL实现屏幕显示demo1文件的内容 package Hdfs; import java.io.InputStream; import java.net.URL; impo ...
- HDFS的Java客户端操作代码(HDFS删除文件或目录)
1.HDFS删除文件或目录 package Hdfs; import java.io.IOException; import java.net.URI; import org.apache.hadoo ...
随机推荐
- 在AChartEngine上绘图,手指标记当前位置
最近要做一个绘图项目,需要在ACE折线图上再绘出一条红标记当前坐标,经过这几天研究,可以给大家分享一下了.先上效果图吧! 代码里的注释还是比较清楚,就不作说明了. package com.exampl ...
- JSON 之 SuperObject(2): 构建方式与 AsJSon
SuperObject 构建一个 JSON 的常用方法: 从字符串.从文件.从流. unit Unit1; interface uses Windows, Messages, SysUtils, ...
- POJ 1944 - Fiber Communications
原题地址:http://poj.org/problem?id=1944 题目大意:有n个点排成一圈,可以连接任意两个相邻的点,给出 p 对点,要求这 p 对点必须直接或间接相连,求最少的连接边数 数据 ...
- 【笨嘴拙舌WINDOWS】GDI绘制区域
在默认情况下,Gdi绘画操作的使用白纸(窗口的客户区)黑字(Pen的颜色)!前面我们已经讲过如何改笔,现在来学习改变白纸(GDI的绘制区域) 正常的纸为一个矩形形状!有时候小孩不小心撕掉纸的一角,不小 ...
- UVa 11100 The Trip, 2007
今天的教训:做题要用大块的时间来做,上午做一下,做题做到一半就去忙别的事,那么后面再做的时候就无限CE,WA了.因为你很难或者需要很长时间来找回当时的思路. 题意:就像套瓷娃娃一样,有n个包,大小可能 ...
- 阿里云linux服务器安装Phalcon-----"phalcon Volt directory can't be written" "gcc: internal compiler error: Killed (program cc1)"
这里特别蛋疼的一件事是官方英文文档和中文文档命令参数略有不同 中文文档: //通用平台下安装指定的软件包: sudo yum install git gcc make pcre-devel php-d ...
- (转)Spark 算子系列文章
http://lxw1234.com/archives/2015/07/363.htm Spark算子:RDD基本转换操作(1)–map.flagMap.distinct Spark算子:RDD创建操 ...
- 给产品经理讲技术,不得不懂的TCP和UDP
TCP/IP协议,你一定经常听说吧,其中TCP(Transmission Control Protocol)称为传输控制协议,IP(Internet Protocol)称为因特网互联协议,好吧,这都是 ...
- liux环境下配置jdk
大家都知道,现在JAVA的发展可谓是如日中天,它覆盖面非常广泛,小到个人PC,大到商业应用都能见到它的身影.以前它是由SUN公司来维护的,现在已经归属到甲骨文旗下了. 今天我们来学习一下Java JD ...
- 一条sql导致数据库整体性能下降的诊断和解决的全过程
今天早上一来,数据库load就比往常高了许多.想想数据库唯一的变化是昨天早上我曾经重新分析过数据库对象. [@more@] 发现数据库load很高,首先看top发现没有特别异常的进程,在数据库中适时抓 ...