HDFS的JAVA客户端编写 

现在,我们来玩玩,在linux系统里,玩eclipse

或者,

即,更改图标,成功

这个,别慌。重新换个版本就好,有错误出错是好事。

http://www.eclipse.org/downloads/download.php?file=/technology/epp/downloads/release/luna/SR2/eclipse-jee-luna-SR2-linux-gtk-x86_64.tar.gz

具体如何下载,我就省略了。直接继续

这个,肯定是与之前,有重复的,没关系,它会自行覆盖,

就是说,home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib

和,home/hadoop/app/hadoop-2.4.1/share/hadoop/hdfs/lib

有重复的,没关系,它会自行覆盖。

到此,hdfslib下的相关依赖jar包加载完毕。

New是无法new的,只能get和set方法

本地,java里的那个fileoutputstream。

它不认识hdfs://

希望得到,这样的一个解析,file:///

玩windows下的eclipse去。

总结:其实,创建User Library,如hdfslib,mapreducelib,yarnlib。

如创建hdfslib,则需要

/home/hadoop/app/hadoop-2.4.1/share/hadoop/hdfs/*

/home/hadoop/app/hadoop-2.4.1/share/hadoop/hdfs/lib/*

/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*

home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*

 

如创建mapreducelib,则需要

/home/hadoop/app/hadoop-2.4.1/share/hadoop/mapreduce/*

 /home/hadoop/app/hadoop-2.4.1/share/hadoop/mapreduce/lib/*

/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*

home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*

 

如创建yarnlib,则需要

/home/hadoop/app/hadoop-2.4.1/share/hadoop/yarn/*

/home/hadoop/app/hadoop-2.4.1/share/hadoop/yarn/lib/*

/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*

home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*

 

如创建httpfslib,则需要

/home/hadoop/app/hadoop-2.4.1/share/hadoop/httpfs/tomcat/lib*

/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*

home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*

 

如创建toolslib,则需要

/home/hadoop/app/hadoop-2.4.1/share/hadoop/tools/lib*

/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*

home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*

 

 

 

会有重复的,但是,没关系,自己会覆盖。

当然,这只是为了具体分析,在生产中,都是直接导入总包。

如创建hdfslib,则需要

/home/hadoop/app/hadoop-2.4.1/share/hadoop/hdfs/*

/home/hadoop/app/hadoop-2.4.1/share/hadoop/hdfs/lib/*

/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*

home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*

 

如创建mapreducelib,则需要

/home/hadoop/app/hadoop-2.4.1/share/hadoop/mapreduce/*

 /home/hadoop/app/hadoop-2.4.1/share/hadoop/mapreduce/lib/*

/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*

home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*

 

如创建yarnlib,则需要

/home/hadoop/app/hadoop-2.4.1/share/hadoop/yarn/*

/home/hadoop/app/hadoop-2.4.1/share/hadoop/yarn/lib/*

/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*

home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*

 

如创建httpfslib,则需要

/home/hadoop/app/hadoop-2.4.1/share/hadoop/httpfs/tomcat/lib*

/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*

home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*

 

如创建toolslib,则需要

/home/hadoop/app/hadoop-2.4.1/share/hadoop/tools/lib*

/home/hadoop/app/hadoop-2.4.1/share/hadoop/common/*

home/hadoop/app/hadoop-2.4.1/share/hadoop/common/lib/*

 

 

 

会有重复的,但是,没关系,自己会覆盖。

当然,这只是为了具体分析,在生产中,都是直接导入总包。

FileSystem是一个抽象类,New是无法new的,只能get和set方法

这里,有个非常实用的快捷键,

在C盘,新建qingshu.txt

出现错误是好事,

原来是这里,

后经查找资料,是少了个 winutils.exe

这只是个WARN警告而已,不影响运行。

错误是:

java.lang.IllegalArgumentException:Wrong FS:hdfs://weekend110:9000/aa,expected:file:///

解决方案一:就不再写了,是上面的在Linux里解决的那种方法。

将/home/hadoop/app/hadoop-2.4.1/etc/hadoop/core-site.xml

和/home/hadoop/app/hadoop-2.4.1/etc/hadoop/hdfs-site.xml

放到,

解决方案二:

身份报错,windows是administrator,hadoop集群那边是hadoop ,supergroup。

-DHADOOP_USER_NAME=Hadoop

问题在:d:\test.txt这个文件。此文件没有扩展名

解决方法:电脑工具栏-文件夹选项-查看-高级设置:-隐藏已知文件类型的扩展名(勾选去掉-应用-确定)

解决方案:

解决方案:

比较底层的写法,适合懂原理。

封装好的写法,适合开发。

解决方案:

快捷键是什么?

我的只能这样

默认是path,养成业务习惯。

等价于,下面

总结,本地文件系统操作很简单,new file即可,

具体的实现是不一样的。但是,上层有一个抽象的文件系统,是Filesystem,为什么这么弄?

是因为Hadoop的文件系统伴随其他的框架结耦合的,我在编程时,只需面向父即抽象,filesystem就可以了,filesystem具体去拿哪个文件系统,我上层不需去管,

你具体是本地文件系统RawLocalFileSystem,那我就可以拿本地文件系统去读啊

你的数据是放在hdfs里面,那我就可以拿DistributedFileSystem去读啊

你的数据是放在S3里面,那我就可以拿S3FileSystem去读啊

你的数据是放在htp服务器里面,,,,,,,都可以。

 

总而言之,降低耦合度。

Filesystem设计思想总结

也可以这样来,

2 weekend110的HDFS的JAVA客户端编写 + filesystem设计思想总结的更多相关文章

  1. HDFS的Java客户端编写

    总结: 之前在教材上看hdfs的Java客户端编写,只有关键代码,呵呵…….闲话不说,上正文. 1. Hadoop 的Java客户端编写建议在linux系统上开发 2. 可以使用eclipse,ide ...

  2. 一次失败的尝试hdfs的java客户端编写(在linux下使用eclipse)

    一次失败的尝试hdfs的java客户端编写(在linux下使用eclipse) 给centOS安装图形界面 GNOME桌面环境 https://blog.csdn.net/wh211212/artic ...

  3. 【Hadoop】HDFS的java客户端编写

    项目使用了Maven  Project 快速进行HDFS 客户端程序测试 客户端操作系统:win10 64位 JDK: 1.7.0_79 开发工具 :Eclipse Luna pom.xml < ...

  4. 一脸懵逼学习hadoop之HDFS的java客户端编写

    1:eclipse创建一个项目,然后导入对应的jar包: 鼠标右击项目,点击properties或者alt+enter快捷键--->java build path--->libraries ...

  5. day03-hdfs的客户端操作\hdfs的java客户端编程

    5.hdfs的客户端操作 客户端的理解 hdfs的客户端有多种形式: 1.网页形式 2.命令行形式 3.客户端在哪里运行,没有约束,只要运行客户端的机器能够跟hdfs集群联网 文件的切块大小和存储的副 ...

  6. hdfs shell命令及java客户端编写

    一. hdfs shell命令 可以通过hadoop fs 查看所有的shell命令及其用法. 传文件到hdfs: hadoop fs -put /home/koushengrui/Downloads ...

  7. HDFS的Java客户端操作代码(HDFS的查看、创建)

    1.HDFS的put上传文件操作的java代码: package Hdfs; import java.io.FileInputStream; import java.io.FileNotFoundEx ...

  8. HDFS的java客户端操作代码(Windows上面打jar包,提交至linux运行)

    1.通过java.net.URL实现屏幕显示demo1文件的内容 package Hdfs; import java.io.InputStream; import java.net.URL; impo ...

  9. HDFS的Java客户端操作代码(HDFS删除文件或目录)

    1.HDFS删除文件或目录 package Hdfs; import java.io.IOException; import java.net.URI; import org.apache.hadoo ...

随机推荐

  1. npm和bower

    npm用于管理node.js 的backend依赖模块:这些模块以node的require来调用 bower用于管理frontend的js依赖模块,这些模块用<script src=" ...

  2. web开发workflow

    web development是一个创建和实施一个新的互联网展示的过程,web网站可以是个非常成熟包罗万象的网站,也可以只是一个blog或者一两个页面.如果未做好充分的准备,web开发将是一个非常复杂 ...

  3. Xcode调试工具Instruments指南

    主要途径是参考苹果官方文档,所以介绍以翻译官方文档为主.由于内容比较多,会分阶段来介绍. 以下来自苹果官方文档中对Instruments描述 介绍 Instruments是一个强大而灵活的性能分析和测 ...

  4. Spring读取配置文件的几种方式

    import java.io.FileInputStream; import java.io.FileNotFoundException; import java.io.FileReader; imp ...

  5. The Guide To Understanding mysqlreport

    The Guide To Understanding mysqlreport This guide to understanding mysqlreport explains everything t ...

  6. HDU5400 Arithmetic Sequence

    解题思路:这题看懂题目是很关键的,这个区间是等差数列,且公差为d1或d2, 特别注意单个数字也为等差数列.每次求出等差数列序列长度,然后   求出对应这种长度对应有多少种组合方式,累加起来就是结果. ...

  7. list() and tuple()

    >>> l = list('sdfsdf') >>> l ['s', 'd', 'f', 's', 'd', 'f'] >>> t = tuple ...

  8. IP碎片原理:攻击和防护

    为了加深理解IP协议和一些DoS攻击手段大家有必要看看以下内容,也许对你理解这个概念有所帮助.先来看看IP碎片是如何产生的吧.         一.IP碎片是如何产生的       链路层具有最大传输 ...

  9. redmine 2.5.2 安装后邮件无法发送

    找到redmine安装目录-apps->redmine->htdocs->conflg->configuration.yml email_delivery:    delive ...

  10. every day english

    job is in your freedom, not your compliance. through no fault of his own. as far as I understand you ...