Hadoop学习记录(3)|HDFS API 操作|RPC调用
HDFS的API操作
URL方式访问
package hdfs;
import java.io.IOException;
import java.io.InputStream;
import java.net.MalformedURLException;
import java.net.URL;
import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
import org.apache.hadoop.io.IOUtils;
public class App1 {
/**
* @param args
/
static final String PATH = "hdfs://h1:9000/hello";
public static void main(String[] args) throws IOException {
/
* hadoop fs -ls hdfs://h1:9000/
* 类似于http://xxx:8080/
*
* 定义路径字符串
* 设置URL支持hadoop
* 创建URL对象传入path
* 获取输入流
* 输出到控制台
*/
URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
URL url = new URL(PATH);
InputStream in = url.openStream();
/**
* @param in 表示输入流
* @param out 表示输出流
* @param buffsize 表示缓冲大小
* @param close 表示在传输结束后是否关闭流
/
IOUtils.copyBytes(in, System.out, 1024, true);
}
} FileSystem fileSystem = FileSystem.get(new URI(“hdfs://h1:9000/”), new Configuration()); FSDataOutputStream out = fileSystem.create(new Path(“/version.sh”)); 保存到根目录名称为version.sh
FileInputStream in = new FileInputStream(“c:\1.sh”); 指定要上传的文件
IOUtils.copyBytes(in,out,1024,true); 这里的IOUtils是hadoop提供的 FSDataInputStream in = fileSystem.open(new Path(“/version.sh”); 获得文件系统读取的输入流
IOUtils.copyBytes(in,System.out,1024,true); 使用IOUtils输出在控制台,并自动关闭流 fileSystem.delete(new Path(“/version.sh”),true); 删除后自动关闭流 fileSystem.mkdirs(new Path(“/h1”); FileStatus[] listStatus = fileSystem.listStatus(new Path(“/”); 获取指定目录的列表数组
for(FileStatus fileStatus : listStatus){ 遍历元数据信息
String isDir = fileStatus.isDir()?”文件夹”:”文件”; 检查是文件还是文件夹
String permission = fileStatus.getPermission().toString(); 获取权限
short replication = fileStatus.getReplication(); 获取副本数
long len = fileStatus.getLen(); 获取文件大小,单位byte
Path path = fileStatus.getPath(); 获取目录信息
System.out.println(isDir+”\t”+permission+”\t”+replication+”\t”+len+”\t”+path); 打印数据信息
} 1、RPC(remote procedure call)远程过程调用
远程过程指的不是一个进程。
2、RPC执行有两个过程。一个是调用方法(client),一个是被调用方法(server)。
3、client主动发起请求,调用指定server中的方法。把调用结果返回给client。
4、RPC是hadoop构建的基础。
5、客户端调用服务端的方法,意味着调用服务端的对象中的方法。
6、如果服务端的对象允许客户端调用,那么这个对象必须实现接口。
7、如果客户端能够调用到服务端对象的方法,那么这些方法一定位于对象的接口。 定义接口
package rpc;
import org.apache.hadoop.ipc.VersionedProtocol; //必须继承
public interface MyBizable extends VersionedProtocol {
long VERSION = 12345L;
public String hello(String name);
}
实现类
package rpc;
import java.io.IOException;
public class MyBiz implements MyBizable {
/
HDFS的FileSystemm 访问方式
获取FileSystem对象
写文件create
读取文件 open
删除文件或目录 delete
创建目录 mkdirs
列出目录的内容和元数据信息 listStatus和getFileStatus
RPC调用
RPC概念
RPC实例
* @see rpc.MyBizable#hello(java.lang.String)
*/
public String hello(String name){
return "hello "+name;
}
@Override
public long getProtocolVersion(String arg0, long arg1) throws IOException {
return VERSION;
}
}
配置服务端
package rpc;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.ipc.RPC;
import org.apache.hadoop.ipc.RPC.Server;
public class MyServer {
/**
* @param args
*/
static final String ADDRESS = "localhost";
static final int PORT = 12345;
public static void main(String[] args) throws IOException {
/**
* 构造一个RPC的服务端
* @param instance 这个示例中的方法会被调用
* @param bindAddress 绑定的地址是用于监听连接的
* @param port 板顶的端口是用于监听连接的
* @param conf 加载配置,new Configuration()
*/
Server server = RPC.getServer(new MyBiz(), ADDRESS, PORT, new Configuration());
server.start(); //启动服务器
}
}
使用客户端调用
package rpc;
import java.io.IOException;
import java.net.InetSocketAddress;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.ipc.RPC;
import org.apache.hadoop.ipc.VersionedProtocol;
public class MyClient {
/**
* @param args
* @throws IOException
*/
public static void main(String[] args) throws IOException {
/**
* 构造一个客户端代理对象,该代理对象实现了命名的协议。 这个代理对象会与制定的服务器通话
*/
MyBizable myBizable = (MyBizable) RPC.waitForProxy(MyBizable.class,
MyBizable.VERSION, new InetSocketAddress(MyServer.ADDRESS,
MyServer.PORT), new Configuration());
String hello = myBizable.hello("world!"); //远程调用方法
System.out.println("客户端结果:"+hello);
RPC.stopProxy(myBizable);
}
}
Hadoop学习记录(3)|HDFS API 操作|RPC调用的更多相关文章
- jackson学习之三:常用API操作
欢迎访问我的GitHub https://github.com/zq2599/blog_demos 内容:所有原创文章分类汇总及配套源码,涉及Java.Docker.Kubernetes.DevOPS ...
- Hadoop学习记录(4)|MapReduce原理|API操作使用
MapReduce概念 MapReduce是一种分布式计算模型,由谷歌提出,主要用于搜索领域,解决海量数据计算问题. MR由两个阶段组成:Map和Reduce,用户只需要实现map()和reduce( ...
- Hadoop学习笔记: HDFS
注:该文内容部分来源于ChinaHadoop.cn上的hadoop视频教程. 一. HDFS概述 HDFS即Hadoop Distributed File System, 源于Google发表于200 ...
- 【Hadoop学习之四】HDFS HA搭建(QJM)
环境 虚拟机:VMware 10 Linux版本:CentOS-6.5-x86_64 客户端:Xshell4 FTP:Xftp4 jdk8 hadoop-3.1.1 由于NameNode对于整个HDF ...
- hadoop学习记录1 初始hadoop
起因 因为工作需要用到,所以需要学习hadoop,所以记录这篇文章,主要分享自己快速搭建hadoop环境与运行一个demo 搭建环境 网上搭建hadoop环境的例子我看蛮多的.但是我看都比较复杂,要求 ...
- ElasticSearch 学习记录之ES如何操作Lucene段
近实时搜索 提交(Commiting)一个新的段到磁盘需要一个 fsync 来确保段被物理性地写入磁盘,这样在断电的时候就不会丢失数据.但是每次提交的一个新的段都fsync 这样操作代价过大.可以使用 ...
- 实验楼Python学习记录_挑战字符串操作
自我学习记录 Python3 挑战实验 -- 字符串操作 目标 在/home/shiyanlou/Code创建一个 名为 FindDigits.py 的Python 脚本,请读取一串字符串并且把其中所 ...
- Hadoop学习笔记(2)-HDFS的基本操作(Shell命令)
在这里我给大家继续分享一些关于HDFS分布式文件的经验哈,其中包括一些hdfs的基本的shell命令的操作,再加上hdfs java程序设计.在前面我已经写了关于如何去搭建hadoop这样一个大数据平 ...
- Hadoop学习记录(5)|集群搭建|节点动态添加删除
集群概念 计算机集群是一种计算机系统,通过一组松散继承的计算机软件或硬件连接连接起来高度紧密地协作完成计算工作. 集群系统中的单个计算机通常称为节点,通过局域网连接. 集群特点: 1.效率高,通过多态 ...
随机推荐
- TNS-12541: TNS:no listener TNS-12560: TNS:protocol adapter error
新建的数据库,在配置完listener的时候报这个错. 参考文章:https://community.oracle.com/message/4098938 http://blog.csdn.net/l ...
- Nginx+uWSGI+bottle 在Linux上部署
在/data/lujianxing/bottle 文件夹中创建三个文件: bottle.py bottle的源文件 a.py from bottle import Bottle, run mybott ...
- Oracle控制文件丢失,日志文件丢失
控制文件丢失: alter database backup controlfile to traces; shutdown immediate; @j:\db\script\orcl_ora_ctl_ ...
- uCOS-II任务的挂起和恢复
函数描述 OSTaskSuspend() 功能描述:无条件挂起一个任务.调用此函数的任务也可以传递参数OS_PRIO_SELF,挂起调用任务本身.函数原型:INT8U OSTaskSuspend ( ...
- 一步步学习ASP.NET MVC3 (12)——FileResult
请注明转载地址:http://www.cnblogs.com/arhat 忙了两天,本来老魏昨天就应该写出新的文章,但是由于昨天雨夹雪而且加上昨天晚上加了班,到家都没饭吃了,一看时间都9点了,什么饭店 ...
- javascript高级编程笔记01(基本概念)
1.在html中使用JavaScript 1. <script> 元素 <script>定义了下列6个属性: async:可选,异步下载外部脚本文件. charset:可选, ...
- js二级下拉菜单
看似简单的一个菜单,确需要不少的知识点 1. getByClass getElementsByClassName 已经有大部分现代浏览器支持了,只有ie6,ie7,ie8是不支持的.所以对ie6,7, ...
- webpack打包sass
首先,需要支持sass,不管是有ruby环境的sass,还是node-sass,用npm装的sass模块,bootstrap-sass,gulp-sass..总归要有一个吧!(这里采用node-sas ...
- NSMutableArray,NSMutableDictionary的内存管问题
今天做项目遇到一个问题,在一个类中定义了一个可变数组,使用的是copy的内存管理策略 当往数组中添加包装好的基本数据的时候,程序直接崩溃了.解决方法:把copy换成strong就不会崩溃了; 后来做了 ...
- CPU Benchmarks
http://www.cpubenchmark.net/high_end_cpus.html 非常清楚~~~