2 weekend110的HDFS的JAVA客户端编写 + filesystem设计思想总结
HDFS的JAVA客户端编写













现在,我们来玩玩,在linux系统里,玩eclipse



或者,
















即,更改图标,成功


这个,别慌。重新换个版本就好,有错误出错是好事。
具体如何下载,我就省略了。直接继续





















这个,肯定是与之前,有重复的,没关系,它会自行覆盖,
就是说,home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib
和,home/hadoop/app/hadoop-2.4.1/share/hadoop/hdfs/lib
有重复的,没关系,它会自行覆盖。

到此,hdfslib下的相关依赖jar包加载完毕。












New是无法new的,只能get和set方法




















本地,java里的那个fileoutputstream。















它不认识hdfs://

希望得到,这样的一个解析,file:///











玩windows下的eclipse去。
总结:其实,创建User Library,如hdfslib,mapreducelib,yarnlib。


如创建hdfslib,则需要
/home/hadoop/app/hadoop-2.4.1/share/hadoop/hdfs/*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/hdfs/lib/*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*
home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*
如创建mapreducelib,则需要
/home/hadoop/app/hadoop-2.4.1/share/hadoop/mapreduce/*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/mapreduce/lib/*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*
home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*
如创建yarnlib,则需要
/home/hadoop/app/hadoop-2.4.1/share/hadoop/yarn/*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/yarn/lib/*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*
home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*
如创建httpfslib,则需要
/home/hadoop/app/hadoop-2.4.1/share/hadoop/httpfs/tomcat/lib*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*
home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*
如创建toolslib,则需要
/home/hadoop/app/hadoop-2.4.1/share/hadoop/tools/lib*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*
home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*
会有重复的,但是,没关系,自己会覆盖。
当然,这只是为了具体分析,在生产中,都是直接导入总包。






































如创建hdfslib,则需要
/home/hadoop/app/hadoop-2.4.1/share/hadoop/hdfs/*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/hdfs/lib/*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*
home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*
如创建mapreducelib,则需要
/home/hadoop/app/hadoop-2.4.1/share/hadoop/mapreduce/*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/mapreduce/lib/*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*
home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*
如创建yarnlib,则需要
/home/hadoop/app/hadoop-2.4.1/share/hadoop/yarn/*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/yarn/lib/*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*
home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*
如创建httpfslib,则需要
/home/hadoop/app/hadoop-2.4.1/share/hadoop/httpfs/tomcat/lib*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*
home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*
如创建toolslib,则需要
/home/hadoop/app/hadoop-2.4.1/share/hadoop/tools/lib*
/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*
home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*
会有重复的,但是,没关系,自己会覆盖。
当然,这只是为了具体分析,在生产中,都是直接导入总包。













FileSystem是一个抽象类,New是无法new的,只能get和set方法
















这里,有个非常实用的快捷键,














在C盘,新建qingshu.txt






出现错误是好事,

原来是这里,

后经查找资料,是少了个 winutils.exe




这只是个WARN警告而已,不影响运行。

错误是:
java.lang.IllegalArgumentException:Wrong FS:hdfs://weekend110:9000/aa,expected:file:///
解决方案一:就不再写了,是上面的在Linux里解决的那种方法。
将/home/hadoop/app/hadoop-2.4.1/etc/hadoop/core-site.xml
和/home/hadoop/app/hadoop-2.4.1/etc/hadoop/hdfs-site.xml
放到,

解决方案二:





身份报错,windows是administrator,hadoop集群那边是hadoop ,supergroup。


-DHADOOP_USER_NAME=Hadoop

问题在:d:\test.txt这个文件。此文件没有扩展名
解决方法:电脑工具栏-文件夹选项-查看-高级设置:-隐藏已知文件类型的扩展名(勾选去掉-应用-确定)


























解决方案:


解决方案:














比较底层的写法,适合懂原理。
封装好的写法,适合开发。








解决方案:







































快捷键是什么?

我的只能这样














默认是path,养成业务习惯。










等价于,下面































总结,本地文件系统操作很简单,new file即可,
具体的实现是不一样的。但是,上层有一个抽象的文件系统,是Filesystem,为什么这么弄?
是因为Hadoop的文件系统伴随其他的框架结耦合的,我在编程时,只需面向父即抽象,filesystem就可以了,filesystem具体去拿哪个文件系统,我上层不需去管,
你具体是本地文件系统RawLocalFileSystem,那我就可以拿本地文件系统去读啊
你的数据是放在hdfs里面,那我就可以拿DistributedFileSystem去读啊
你的数据是放在S3里面,那我就可以拿S3FileSystem去读啊
你的数据是放在htp服务器里面,,,,,,,都可以。
总而言之,降低耦合度。
Filesystem设计思想总结


也可以这样来,


2 weekend110的HDFS的JAVA客户端编写 + filesystem设计思想总结的更多相关文章
- HDFS的Java客户端编写
总结: 之前在教材上看hdfs的Java客户端编写,只有关键代码,呵呵…….闲话不说,上正文. 1. Hadoop 的Java客户端编写建议在linux系统上开发 2. 可以使用eclipse,ide ...
- 一次失败的尝试hdfs的java客户端编写(在linux下使用eclipse)
一次失败的尝试hdfs的java客户端编写(在linux下使用eclipse) 给centOS安装图形界面 GNOME桌面环境 https://blog.csdn.net/wh211212/artic ...
- 【Hadoop】HDFS的java客户端编写
项目使用了Maven Project 快速进行HDFS 客户端程序测试 客户端操作系统:win10 64位 JDK: 1.7.0_79 开发工具 :Eclipse Luna pom.xml < ...
- 一脸懵逼学习hadoop之HDFS的java客户端编写
1:eclipse创建一个项目,然后导入对应的jar包: 鼠标右击项目,点击properties或者alt+enter快捷键--->java build path--->libraries ...
- day03-hdfs的客户端操作\hdfs的java客户端编程
5.hdfs的客户端操作 客户端的理解 hdfs的客户端有多种形式: 1.网页形式 2.命令行形式 3.客户端在哪里运行,没有约束,只要运行客户端的机器能够跟hdfs集群联网 文件的切块大小和存储的副 ...
- hdfs shell命令及java客户端编写
一. hdfs shell命令 可以通过hadoop fs 查看所有的shell命令及其用法. 传文件到hdfs: hadoop fs -put /home/koushengrui/Downloads ...
- HDFS的Java客户端操作代码(HDFS的查看、创建)
1.HDFS的put上传文件操作的java代码: package Hdfs; import java.io.FileInputStream; import java.io.FileNotFoundEx ...
- HDFS的java客户端操作代码(Windows上面打jar包,提交至linux运行)
1.通过java.net.URL实现屏幕显示demo1文件的内容 package Hdfs; import java.io.InputStream; import java.net.URL; impo ...
- HDFS的Java客户端操作代码(HDFS删除文件或目录)
1.HDFS删除文件或目录 package Hdfs; import java.io.IOException; import java.net.URI; import org.apache.hadoo ...
随机推荐
- npm和bower
npm用于管理node.js 的backend依赖模块:这些模块以node的require来调用 bower用于管理frontend的js依赖模块,这些模块用<script src=" ...
- web开发workflow
web development是一个创建和实施一个新的互联网展示的过程,web网站可以是个非常成熟包罗万象的网站,也可以只是一个blog或者一两个页面.如果未做好充分的准备,web开发将是一个非常复杂 ...
- Xcode调试工具Instruments指南
主要途径是参考苹果官方文档,所以介绍以翻译官方文档为主.由于内容比较多,会分阶段来介绍. 以下来自苹果官方文档中对Instruments描述 介绍 Instruments是一个强大而灵活的性能分析和测 ...
- Spring读取配置文件的几种方式
import java.io.FileInputStream; import java.io.FileNotFoundException; import java.io.FileReader; imp ...
- The Guide To Understanding mysqlreport
The Guide To Understanding mysqlreport This guide to understanding mysqlreport explains everything t ...
- HDU5400 Arithmetic Sequence
解题思路:这题看懂题目是很关键的,这个区间是等差数列,且公差为d1或d2, 特别注意单个数字也为等差数列.每次求出等差数列序列长度,然后 求出对应这种长度对应有多少种组合方式,累加起来就是结果. ...
- list() and tuple()
>>> l = list('sdfsdf') >>> l ['s', 'd', 'f', 's', 'd', 'f'] >>> t = tuple ...
- IP碎片原理:攻击和防护
为了加深理解IP协议和一些DoS攻击手段大家有必要看看以下内容,也许对你理解这个概念有所帮助.先来看看IP碎片是如何产生的吧. 一.IP碎片是如何产生的 链路层具有最大传输 ...
- redmine 2.5.2 安装后邮件无法发送
找到redmine安装目录-apps->redmine->htdocs->conflg->configuration.yml email_delivery: delive ...
- every day english
job is in your freedom, not your compliance. through no fault of his own. as far as I understand you ...