Hive 表数据的存储和压缩格式
SerDe
* 按行存储
* 按列存储
file_format:
:
| SEQUENCEFILE 序列化(行存储)
| TEXTFILE 文本格式(行存储)- (Default, depending on hive.default.fileformat configuration)
| RCFILE 列式存储文件(列存储)- (Note: Available in Hive 0.6.0 and later)
| ORC 常用 优化列式存储文件(列存储)- (Note: Available in Hive 0.11.0 and later)
| PARQUET 常用 (列存储)- (Note: Available in Hive 0.13.0 and later)
| AVRO - (Note: Available in Hive 0.14.0 and later)
| INPUTFORMAT input_format_classname OUTPUTFORMAT output_format_classname

ORC列存储结构如图所示,个人理解:每一个字段存为一列,index data 保存了最大值和最小值,只有当索引范围合适时,才去扫描对应的列数据查找匹配项
As shown in the diagram, each stripe in an ORC file holds index data, row data, and a stripe footer.
The stripe footer contains a directory of stream locations. Row data is used in table scans.
Index data includes min and max values for each column and the row positions within each column.索引数据包含了对应的 列(column)数据 的最大值和最小值,以及列中数据的相应行的位置。 Row index entries provide offsets that enable seeking to the right compression block and byte within a decompressed block. Note that ORC indexes are used only for the selection of stripes and row groups and not for answering queries.
来自 hortonworks 的性能评估
二、各种数据存储格式比较
For example, creating an ORC stored table without compression:
官网例子
create table Addresses (
name string,
street string,
city string,
state string,
zip int
) stored as orc tblproperties ("orc.compress"="NONE");
个人测试用例:TEXTFILE
create table bf_log(
user_ip string,
a string,
time string,
get2host string,
status1 string,
status2 string,
b string,
from_url string,
equipment_info string,
c string,
url_now string
) ROW FORMAT DELIMITED FIELDS TERMINATED BY ' ' stored as TEXTFILE;
导入数据
load data local inpath '/opt/datas/xxx.log' into table bf_log;
数据大小
2.0 M /user/hive/warehouse/bf_log_orc/moodle.ibeifeng.access.log
使用 ORC 存储
create table bf_log_orc(
user_ip string,
a string,
time string,
get2host string,
status1 string,
status2 string,
b string,
from_url string,
equipment_info string,
c string,
url_now string
) ROW FORMAT DELIMITED FIELDS TERMINATED BY ' ' stored as orc;
导入数据
insert into table bf_log_orc select * from bf_log;
数据大小
62.5 K /user/hive/warehouse/bf_log_orc/000000_0
使用 PARQUET
create table bf_log_parquet(
user_ip string,
a string,
time string,
get2host string,
status1 string,
status2 string,
b string,
from_url string,
equipment_info string,
c string,
url_now string
) ROW FORMAT DELIMITED FIELDS TERMINATED BY ' ' stored as PARQUET;
导入数据
insert into table bf_log_parquet select * from bf_log;
数据大小
360.1 K /user/hive/warehouse/bf_log_parquet/000000_0
三、进行数据文件的压缩(主要只支持三种,详情见底部图片)
1.查看支持的数据压缩格式
cen@hostname-ubuntu:/opt/softwares/hadoop-2.8.0$ bin/hadoop checknative
17/07/17 05:34:32 INFO bzip2.Bzip2Factory: Successfully loaded & initialized native-bzip2 library system-native
17/07/17 05:34:32 INFO zlib.ZlibFactory: Successfully loaded & initialized native-zlib library
Native library checking:
hadoop: true /opt/softwares/hadoop-2.8.0/lib/native/libhadoop.so.1.0.0
zlib: true /lib/x86_64-linux-gnu/libz.so.1
snappy: true /usr/lib/x86_64-linux-gnu/libsnappy.so.1
lz4: true revision:10301
bzip2: true /lib/x86_64-linux-gnu/libbz2.so.1
openssl: true /usr/lib/x86_64-linux-gnu/libcrypto.so
2.使用 snappy 压缩
create table bf_log_orc_snappy(
user_ip string,
a string,
time string,
get2host string,
status1 string,
status2 string,
b string,
from_url string,
equipment_info string,
c string,
url_now string
) ROW FORMAT DELIMITED FIELDS TERMINATED BY ' ' stored as PARQUET tblproperties ("orc.compress"="snappy");
导入数据
insert into table bf_log_orc_snappy select * from bf_log;
数据大小
360.1 K /user/hive/warehouse/bf_log_orc_snappy/000000_0
#!!!什么?居然搞大了,为什么?
#因为原本默认使用的是 ZLIB (接近bzip2)压缩
四、总结
最常用的解决方案:
- 数据格式:orc | parquet
- 压缩格式:sanppy
Hive 表数据的存储和压缩格式的更多相关文章
- hive-hbase-handler方式导入hive表数据到hbase表中
Hive与HBase的整合功能的实现是利用两者本身对外的API接口互相进行通信,相互通信主要是依靠hive-hbase-handler.jar工具类 : hive-hbase-handler.jar在 ...
- hive 将hive表数据查询出来转为json对象和json数组输出
一.将hive表数据查询出来转为json对象输出 1.将查询出来的数据转为一行一行,并指定分割符的数据 2.使用UDF函数,将每一行数据作为string传入UDF函数中转换为json再返回 1.准备数 ...
- Hadoop_常用存储与压缩格式
HDFS文件格式 file_format: TEXTFILE 默认格式 RCFILE hive 0.6.0 和以后的版本 ORC hive 0.11.0 和以后的版本 PARQUET hive 0.1 ...
- hive表数据导出到csv乱码原因及解决方案
转载自http://blog.csdn.net/lgdlxc/article/details/42126225 Hive表中的数据使用hive - e"select * from table ...
- [源码分享] HIVE表数据量统计&邮件
概要: 计算HIVE BI库下每天数据表总大小及增量 输出: 总大小:xxxG 日同比新增数据量:xxxG 周同比新增数据量:xxxG 月同比新增数据量:xxxG 总表数:xxx 日新增表数:xxx ...
- MySQL-5.7设置InnoDB表数据文件存储位置
1.表空间 Innodb存储引擎可将所有数据存放于ibdata*的共享表空间,也可将每张表存放于独立的.ibd文件的独立表空间. 共享表空间以及独立表空间都是针对数据的存储方式而言的. 共享表空间: ...
- Hive表数据同步到es
1.首先服务器节点,进入到对应的数据库.2. 然后找到要同步的表,show create table + 表名查看一下或者自己可以新建一个表,用来测试原表,如下 CREATE TABLE `wb_tm ...
- MySQL的nnodb引擎表数据分区存储
Symlinks are fully supported only for MyISAM tables. 对应Innodb引擎数据文件放到其他目录 mysql> SHOW VARIABLES L ...
- Hive表数据导出
方式一: hadoop命令导出 hadoop fs -get hdfs://hadoop000:8020/data/page_views2 pv2 方式二:通过insert...directory导 ...
随机推荐
- SourceTree 跳过登陆
当前只有Win的版本,Mac自行百度(笑) 很多人用git命令行不熟练,那么可以尝试使用sourcetree进行操作. 然鹅~~sourcetree又一个比较严肃的问题就是,很多人不会跳过注册或者操作 ...
- <Android 基础(十三)> shape
介绍 简单来说,shape就是用来在xml文件中定义形状,代码解析之后就可以当做Drawable一样使用 官方说明 关于shape定义的drawable 文件位置:res/drawable/filen ...
- Java Knowledge series 7
Pepole who make a greate contribution on common libaraies deserve our respect. Component(Widget) / S ...
- C#实现屏幕指定区域截屏
//string Opath = @"C:/Picture"; //if (Opath.Substring(Opath.Length - 1, 1) != @ ...
- Java项目性能瓶颈分析及定位(八)——Java线程堆栈分析(五)
对于CPU而言,常见的瓶颈主要有两种:服务器的压力很小,但是CPU的利用率却很高,这样的性能瓶颈相对比较容易定位(好比我只是说了你一句,你就哭了,你的弱点立马就暴露出来了):给服务器施加的压力很大,但 ...
- 2016 Multi-University Training Contest 4 - 1005 (hdu5768)
题目链接:http://acm.hdu.edu.cn/showproblem.php?pid=5768 题目大意:给你区间[L,R],问你[L, R]中有多少个数字x满足x%7=0且x%p[i]≠a[ ...
- sublime打开txt文件乱码的问题
我们使用Sublime打开TXT文件的时候,会经常因为编码的问题造成乱码. 这是因为TXT记事本的默认保存编码格式是GBK,而Sublime text不支持GB2312和GBK编码. 我们可以通过安装 ...
- HashMap通过hashcode对其内容进行快速查找,而 TreeMap中所有的元素都保持着某种固定的顺序
HashMap通过hashcode对其内容进行快速查找,而 TreeMap中所有的元素都保持着某种固定的顺序,如果你需要得到一个有序的结果你就应该使用TreeMap(HashMap中元素的排列顺序是不 ...
- 【转】你是不是也被Android Private Libraries、Referenced Libraries、android Dependency搞晕了~~
一.v4.v7.v13的作用和用法 1.Android Support V4, V7, V13是什么? 本质上就是三个java library. 2.为什么要有support库? 是为了解决软件的 ...
- 2018年第九届蓝桥杯【C++省赛B组】第二题 明码
汉字的字形存在于字库中,即便在今天,16点阵的字库也仍然使用广泛.16点阵的字库把每个汉字看成是16x16个像素信息.并把这些信息记录在字节中. 一个字节可以存储8位信息,用32个字节就可以存一个汉字 ...
