大数据学习笔记——Hadoop编程之SequenceFile
SequenceFile(Hadoop序列文件)基础知识与应用
上篇编程实战系列中本人介绍了基本的使用HDFS进行文件读写的方法,这一篇将承接上篇重点整理一下SequenceFile的相关知识及应用
1. SequenceFile简介
SequenceFile是Hadoop自带的一种键值对文件格式,它具有以下几个特点:
1. 由于该文件类型是Hadoop自带的,因此对Hadoop环境具有最强的兼容性
2. 由于Hadoop不适合存储大量小文件,SequenceFile作为容器文件,能够封装大量的小文件为一个大文件,很好地解决了这个问题
3. 该文件类型具有可切割性,因此可实现数据本地化
2. SequenceFile编程实战
首先介绍一下SequenceFile的基本组成部分
1. SequenceFile的版本号,包括3个字节的SEQ,和它的版本号
2. key的类名
3. value的类名
4. 一个用来表示是否压缩的boolean值
5. 一个用来表示是否是块压缩的boolean值
6. 指定一个压缩编解码器
7. 元数据
8. 同步点:用来定位数据的边界
2.1 SequenceFile的基本读写操作
//测试使用SequenceFile进行文件的写出
@Test
public void testWrite() throws Exception{
//进行用户设置
System.setProperty("HADOOP_USER_NAME", "root");
//Configuration对象
Configuration conf = new Configuration();
//FileSystem对象
FileSystem fs = FileSystem.get(conf);
//新建一个写入器
SequenceFile.Writer writer = SequenceFile.createWriter(fs, conf, new Path("/1.seq"), IntWritable.class, Text.class);
//传入1000个hello做测试
for(int i = 1; i <= 1000; i++){
IntWritable key = new IntWritable(i);
Text value = new Text("hello" + i);
writer.append(key,value);
}
//关闭资源
writer.close();
} //测试使用SequenceFile进行文件内容的读取
@Test
public void testRead() throws Exception{
//进行用户设置
System.setProperty("HADOOP_USER_NAME", "root");
//Configuration对象
Configuration conf = new Configuration();
//FileSystem对象
FileSystem fs = FileSystem.get(conf);
//新建一个读取器
SequenceFile.Reader reader = new SequenceFile.Reader(fs, new Path("/1.seq"), conf);
//初始化两个对象作为容器存放读取到的数据
IntWritable key = new IntWritable();
Text value = new Text();
for(int i = 1; i <= 1000; i++){
reader.next(key,value);
System.out.println("key: " + key + "\t" + "value: " + value);
}
//关闭资源
reader.close();
}
2.2 SequenceFile的sort和merge操作
sort操作
由于需要使用到排序方法,因此首先我们需要准备一个乱序的seq文件
//准备一个乱序的seq文件
@Test
public void testWrite2() throws Exception{
//进行用户设置
System.setProperty("HADOOP_USER_NAME", "root");
//Configuration对象
Configuration conf = new Configuration();
//FileSystem对象
FileSystem fs = FileSystem.get(conf);
//新建一个写入器
SequenceFile.Writer writer = SequenceFile.createWriter(fs, conf, new Path("/in1.seq"), IntWritable.class, Text.class);
//传入1000个hello做测试,但是是乱序输出的
Random r = new Random();
for(int i = 1; i <= 1000; i++){
IntWritable key = new IntWritable(r.nextInt(1000));
Text value = new Text("hello" + key);
writer.append(key,value);
}
//关闭资源
writer.close();
} //测试排序方法
@Test
public void testSort() throws Exception{
//进行用户设置
System.setProperty("HADOOP_USER_NAME", "root");
//Configuration对象
Configuration conf = new Configuration();
//FileSystem对象
FileSystem fs = FileSystem.get(conf);
//新建一个排序器
SequenceFile.Sorter sorter = new SequenceFile.Sorter(fs, IntWritable.class, Text.class, conf);
//使用sorter对象的sort方法对key进行排序
sorter.sort(new Path("/in1.seq"),new Path("/out1.seq"));
}
排序前,可用hdfs dfs -text /in1.seq进行SequenceFile的查看,查看结果如下:

排序后,使用hdfs dfs -text /out1.seq进行查看,结果如下,排序成功!

merge操作
//准备另一个seq文件用来进行merge操作
@Test
public void testWrite3() throws Exception{
//进行用户设置
System.setProperty("HADOOP_USER_NAME", "root");
//Configuration对象
Configuration conf = new Configuration();
//FileSystem对象
FileSystem fs = FileSystem.get(conf);
//新建一个写入器
SequenceFile.Writer writer = SequenceFile.createWriter(fs, conf, new Path("/in2.seq"), IntWritable.class, Text.class);
//传入1000个hello做测试,但是是乱序输出的
Random r = new Random();
for(int i = 1; i <= 1000; i++){
IntWritable key = new IntWritable(r.nextInt(1000));
Text value = new Text("helloworld" + key);
writer.append(key,value);
}
//关闭资源
writer.close();
} //演示merge方法合并两个seq文件
@Test
public void testMerge() throws Exception{
//进行用户设置
System.setProperty("HADOOP_USER_NAME", "root");
//Configuration对象
Configuration conf = new Configuration();
//FileSystem对象
FileSystem fs = FileSystem.get(conf);
//新建一个排序器,然后调用排序器的merge方法
SequenceFile.Sorter sorter = new SequenceFile.Sorter(fs, IntWritable.class, Text.class, conf);
Path path1 = new Path("/in1.seq");
Path path2 = new Path("/in2.seq");
Path[] paths = {path1,path2};
sorter.merge(paths,new Path("/merge.seq"));
}
2.3 SequenceFile三种压缩方式比较
SequenceFile一共有三种不同的压缩方式:
1. None:不压缩
2. Record:记录压缩,只压缩value
3. Block:块压缩,将多个K-V对聚集在一起,超过指定大小后(1000000字节,近似于1M)将其压缩
package com.seq; import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.SequenceFile;
import org.apache.hadoop.io.Text;
import org.junit.Test; /*
测试几种不同的压缩方式最终产生的文件大小
*/
public class TestCompress { @Test
public void testCompression() throws Exception{
System.setProperty("HADOOP_USER_NAME", "root");
Configuration conf = new Configuration();
FileSystem fs = FileSystem.get(conf);
//分别新建三个不同的写出器,之后查看文件大小
SequenceFile.Writer writer1 = SequenceFile.createWriter(fs, conf, new Path("/none.seq"), IntWritable.class, Text.class, SequenceFile.CompressionType.NONE);
SequenceFile.Writer writer2 = SequenceFile.createWriter(fs, conf, new Path("/record.seq"), IntWritable.class, Text.class, SequenceFile.CompressionType.RECORD);
SequenceFile.Writer writer3 = SequenceFile.createWriter(fs, conf, new Path("/block.seq"), IntWritable.class, Text.class, SequenceFile.CompressionType.BLOCK);
//写入10000个hello作比较
for(int i = 1; i <= 10000; i++){
IntWritable key = new IntWritable(i);
Text value = new Text("hellohellohellohellohellohellohellohellohellohellohellohellohellohellohellohellohellohellohellohellohellohellohellohello" + key);
writer1.append(key,value);
writer2.append(key,value);
writer3.append(key,value);
}
//关闭资源
writer1.close();
writer2.close();
writer3.close();
}
}
查看文件大小,可得:不压缩文件大小 > 记录压缩文件大小 > 块压缩文件大小



2.4 压缩编解码器性能对比
目前常用的压缩编解码器主要有这几种:gzip, bzip2, lz4, lzo, Snappy等,关于性能的讨论,主要分为两派,一是追求较高的压缩比,但要付出时间的代价,二是追求较高的速度,但相对的,压缩比会小一些,对于lzo来说,首先需要导入相关依赖,依赖如下:
<dependency>
<groupId>org.anarres.lzo</groupId>
<artifactId>lzo-hadoop</artifactId>
<version>1.0.0</version>
</dependency>
测试代码如下:
package com.codec; import com.hadoop.compression.lzo.LzopCodec;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.io.IOUtils;
import org.apache.hadoop.io.compress.*; import org.apache.hadoop.util.ReflectionUtils; import java.io.File;
import java.io.FileInputStream;
import java.io.FileOutputStream; /**
* 综合测试压缩时间 解压时间 压缩大小
*/ public class TestCodec { public static void main(String[] args) {
Class[] classes = {
GzipCodec.class,
DefaultCodec.class,
Lz4Codec.class,
BZip2Codec.class,
LzopCodec.class,
SnappyCodec.class
}; for (Class clazz : classes) {
testCompress(clazz,"d:/test.log");
testDecompress(clazz,"d:/test.log");
} } /**
* 测试压缩
* @throws Exception
*/
public static void testCompress(Class clazz, String path) { try { Configuration conf = new Configuration();
//通过hadoop的反射工具类,获取压缩编解码器的实例
CompressionCodec codec = (CompressionCodec)ReflectionUtils.newInstance(clazz, conf); //获取编解码器默认扩展名
String ext = codec.getDefaultExtension(); long start = System.currentTimeMillis(); //输入流读取本地文件
FileInputStream fis = new FileInputStream(path);
//输出流加压缩
CompressionOutputStream cos = codec.createOutputStream(new FileOutputStream(path + ext)); IOUtils.copyBytes(fis,cos,1024); System.out.println(ext + "压缩时间:" + (System.currentTimeMillis() -start)); File f = new File(path+ext);
long length = f.length();
System.out.println(ext + "压缩大小:" + length); fis.close();
cos.close();
} catch (Exception e) {
e.printStackTrace();
}
} /**
* 测试解压
* @throws Exception
*/
public static void testDecompress(Class clazz, String path){ try {
Configuration conf = new Configuration();
//通过hadoop的反射工具类,获取压缩编解码器的实例
CompressionCodec codec = (CompressionCodec)ReflectionUtils.newInstance(clazz, conf); //获取编解码器默认扩展名
String ext = codec.getDefaultExtension(); long start = System.currentTimeMillis(); //输入流解压文件
CompressionInputStream cis = codec.createInputStream(new FileInputStream(path+ext));
//输出流加压缩
FileOutputStream fos = new FileOutputStream(path + ext + ".log"); IOUtils.copyBytes(cis,fos,1024); System.out.println(ext + "解压时间:" + (System.currentTimeMillis() -start)); cis.close();
fos.close();
} catch (Exception e) {
e.printStackTrace();
}
}
}
测试结果公布:
压缩大小
bzip2 < gzip < deflate < lz4 < lzo
压缩时间
lz4 < lzo < deflate < gzip < bzip2
328 576 1106 2653 20599
解压时间
lzo < lz4 < deflate < gzip < bzip2
404 427 437 524 4694
优化压缩比可选用:
bzip2
gzip
deflate
优化压缩速度可选用:
lz4
lzo
大数据学习笔记——Hadoop编程之SequenceFile的更多相关文章
- 大数据学习笔记——Hadoop编程实战之HDFS
HDFS基本API的应用(包含IDEA的基本设置) 在上一篇博客中,本人详细地整理了如何从0搭建一个HA模式下的分布式Hadoop平台,那么,在上一篇的基础上,我们终于可以进行编程实操了,同样,在编程 ...
- 大数据学习笔记——Hadoop编程实战之Mapreduce
Hadoop编程实战——Mapreduce基本功能实现 此篇博客承接上一篇总结的HDFS编程实战,将会详细地对mapreduce的各种数据分析功能进行一个整理,由于实际工作中并不会过多地涉及原理,因此 ...
- 大数据学习笔记——Hadoop高可用完全分布式模式完整部署教程(包含zookeeper)
高可用模式下的Hadoop集群搭建 本篇博客将会在之前写过的Linux的完整部署的基础上进行,暂时不会涉及到伪分布式或者完全分布式模式搭建,由于HA模式涉及到的配置文件较多,维护起来也较为复杂,相信学 ...
- 大数据学习之Hadoop快速入门
1.Hadoop生态概况 Hadoop是一个由Apache基金会所开发的分布式系统集成架构,用户可以在不了解分布式底层细节情况下,开发分布式程序,充分利用集群的威力来进行高速运算与存储,具有可靠.高效 ...
- 大数据学习笔记——Java篇之集合框架(ArrayList)
Java集合框架学习笔记 1. Java集合框架中各接口或子类的继承以及实现关系图: 2. 数组和集合类的区别整理: 数组: 1. 长度是固定的 2. 既可以存放基本数据类型又可以存放引用数据类型 3 ...
- 大数据学习笔记——Linux完整部署篇(实操部分)
Linux环境搭建完整操作流程(包含mysql的安装步骤) 从现在开始,就正式进入到大数据学习的前置工作了,即Linux的学习以及安装,作为运行大数据框架的基础环境,Linux操作系统的重要性自然不言 ...
- 大数据学习笔记之初识Hadoop
1.Hadoop概述 1.1 Hadoop名字的由来 Hadoop项目作者的孩子给一个棕黄色的大象样子的填充玩具的命名 Hadoop的官网:http://hadoop.apache.org . 1.2 ...
- 大数据学习笔记之Hadoop(二):HDFS文件系统
文章目录 一 HDFS概念 1.1 概念 1.2 组成 1.3 HDFS 文件块大小 二 HFDS命令行操作 三 HDFS客户端操作 3.1 eclipse环境准备 3.1.1 jar包准备 3.2 ...
- 大数据学习笔记之Hadoop(一):Hadoop入门
文章目录 大数据概论 一.大数据概念 二.大数据的特点 三.大数据能干啥? 四.大数据发展前景 五.企业数据部的业务流程分析 六.企业数据部的一般组织结构 Hadoop(入门) 一 从Hadoop框架 ...
随机推荐
- Java IO入门
目录 一. 数据源(流) 二. 数据传输 三. 总结 我们从两个方面来理解Java IO,数据源(流).数据传输,即IO的核心就是对数据源产生的数据进行读写并高效传输的过程. 一. 数据源(流) 数据 ...
- 物联网架构成长之路(47)-利用GitLab实现CI持续集成
0.前言 前段时间,考虑到要练习部署一套CI/CD的系统.一开始考虑到Jenkins,随着这两天的了解,发现最新版的GitLab已经提供有CI/CD集成了.所以本次博客,干脆一步到位,直接用GitLa ...
- CentOS7中安装MariaDB
什么是mariaDB? 在线安装(慢的要命) RPM离线安装(CentOS7.X) 在线安装 打开官方网站 https://mariadb.org/ 点击Download,跳转到下一页面 继续点击Do ...
- 【Luogu P1972】HH的项链
Luogu P1972 一开始非常naive随便打了个树状数组统计就交上去了,然后不出意料的爆零了-- 然后删一删改一改过了. 重点:对于区间[1,r]中重复出现的数,我们只需要关心最右边那一个是否在 ...
- enable_shared_from_this用法分析
一.背景 在为什么需要异步编程文章末尾提到,"为了使socket和缓冲区(read或write)在整个异步操作的生命周期一直保持活动,我们需要采取特殊的保护措施.你的连接类需要继承自enab ...
- 探索 Reflect.apply 与 Function.prototype.apply 的区别
探索 Reflect.apply 与 Function.prototype.apply 的区别 众所周知, ES6 新增了一个全局.内建.不可构造的 Reflect 对象,并提供了其下一系列可被拦截的 ...
- Java8 Stream中间操作使用详解
前面两篇简单的介绍了Stream以及如何创建Stream,本篇就给大家说说stream有哪些用途,以及具体怎样使用. 再次介绍Stream Stream 使用一种类似用于SQL 语句从数据库查询数据的 ...
- Go语言冒泡、选择、插入、快速排序实战浅析
Hello,各位小伙伴大家好,我是小栈君,今天为大家带来的分享是关于go语言中的排序实战浅析. 我们就实际操作关于go的冒泡排序.选择排序.插入排序和快速排序四种方式的理论和实战进行分享,希望能够为大 ...
- 【JavaEE】之MyBatis与原生JDBC、Hibernate访问数据库的比较
首先来看一下原生JDBC访问数据库的代码: public static void main(String[] args) { // 数据库连接 Connection connection = null ...
- CCNA 之 九 STP生成树协议
STP生成树 在上一次实验中,使用了单臂路由是两个不同的VLAN之间进行通信,而单臂路由的这种网络拓扑,当一条链路或者路由设备出现故障的时候,整个网络就会瘫痪. 称此网络为:不健壮的,无冗余的网络环境 ...