Hive-ORC文件存储格式(续)
本文在Hive-ORC文件存储格式的理论基础上,进一步分析一个实际的Hive ORC表中的数据存储形式。
一、表结构
库名+表名:fileformat.test_orc
| 字段 | 类型 | 
|---|---|
| category_id | string | 
| product_id | int | 
| brand_id | int | 
| price | double | 
| category_id_2 | string | 
   
  在hive中命令desc formatted fileformat.test_orc;的结果如下图: 
   
   
   
  根据上图中的location信息,查看在HDFS上的文件: 
   
  
二、查看dump文件
  hive提供了一个--orcfiledump参数用于查看HDFS上ORC表格的文件信息,在hive-0.13版本中的使用方法为:hive --orcfiledump <location-of-orc-file>,其他版本的使用方法可以去官方文档中查找。 
  下面是命令hive --orcfiledump /user/hive/warehouse/fileformat.db/test_orc/000000_0的查询结果 
  
三、dump文件分析
  接下来的分析,请对照着文章Hive-ORC文件存储格式中的图1-ORC文件结构图进行。 
  使用hql语句,统计出各字段的count, min, max, sum信息如下:
| 字段 | COUNT | MIN | MAX | SUM | 
|---|---|---|---|---|
| category_id | 1000000 | 5011 | 975673 | 4.0222868968E11 | 
| product_id | 1000000 | 968 | 50997770 | 27158964508399 | 
| brand_id | 999130 | 0 | 1026427 | 774991825568 | 
| price | 1000000 | -0.0092 | 358000.0 | 1.8953626711045265E8 | 
| category_id_2 | 1000000 | 5010 | 5996 | 5.183530839E9 | 
   
  从dump文件的图片中可以看出,大致分成四个部分:
1、表结构信息
记录整张表的记录数,压缩方式,压缩大小,以及表结构。在表结构部分,ORC将整张表的所有字段构造成一个大的struct结构。对应图1-ORC文件结构图中的Postscript部分。
2、Stripe统计信息
  统计当前HDFS文件对应Stripe的信息,包括各个字段的count,min, max, sum信息。对于最外层的Struct,只统计其count值。由于这张表数据量不大,当前HDFS文件中只有一个Stripe。对应图1-ORC文件结构图中的Stripe Footer部分。 
  
3、File统计信息
  统计内容和第二部分一致,不过这里统计的整张表的每个字段count, min, max, sum信息。对应图1-ORC文件结构图中的FileFooter部分。 
  这里我们将dump文件中的统计信息,与各字段实际统计信息作对比。通过与上面表格中各字段统计信息对比,发现对于int类型和double类型的字段,min, max, sum的结果都是匹配的。但是对于string类型的字段,仅仅只有min, max统计结果一致,sum的结果不相同。
4、Stripe详细信息
  统计各Stripe的offset,总记录行数等Stripe层次的信息。该Stripe中各字段的Index Data和Row Data,以及每个字段的编码方式。 
  前面一行Stripe: offset: 3 data: 7847351 rows: 1000000 tail: 132 index: 7936应该也是保存在FileFooter中,后面各个字段统计信息对应图1-ORC文件结构图中的Index Data和Row Data部分。 
  从dump文件中的数据可以看出,每个字段的ROW_INDEX以及DATA信息是保存在一块连续空间中的,这块文件从offset=3开始。这也说明图1-ORC文件结构图中Row Data区的数据紧随Index Data区数据之后。 
  Index Data数据统计:
| 起始位置 | 字段 | 
|---|---|
| 3……21 | STRUCT | 
| 22……1141 | category_id | 
| 1142……3056 | product_id | 
| 3057……5135 | brand_id | 
| 5136……7201 | price | 
| 7202……7938 | category_id_2 | 
Row Data数据统计:
| 起始位置 | 字段 | 描述 | 
|---|---|---|
| 7939……59887 | category_id | 字段对应词条int流 | 
| 59888……59898 | category_id | 词条长度int流 | 
| 59899……60989 | category_id | 字典词条数据 | 
| 60990……3525432 | product_id | 实际数据int流 | 
| 3525433……3527085 | brand_id | 标识IF NULL的byte流 | 
| 3527086……5708142 | brand_id | 实际数据int流 | 
| 5708143……7855016 | price | double类型 | 
| 7855017……7855212 | category_id_2 | 字段对应词条int流 | 
| 7855213……7855219 | category_id_2 | 词条长度int流 | 
| 7855220……7855289 | category_id_2 | 字典词条数据 | 
  在ORC文件的int类型和string类型保存时,会有一个byte流用于记录字段的某个记录是否为null,根据统计只有brand_id 字段的count值不足100000条,也就是说除了brand_id 字段之外,其他字段中没有null值。所以在上面Row Data表中,只有brand_id有一个对应的IF NULL标识流。一个String类型,会将词条数据保存在字节流中,然后一个int流记录每个词条的长度,另外一个int流用于指定字段某个记录对应字典词条中的哪一个。 
   
  这部分最后记录了每一个字段的存储方式,统计如下
| 字段 | 类型 | 存储方式 | 
|---|---|---|
| STRUCT | DIRECT | |
| category_id | String | DICTIONARY_V2 | 
| product_id | Int | DIRECT_V2 | 
| brand_id | Int | DIRECT_V2 | 
| price | Double | DIRECT | 
| category_id_2 | String | DICTIONARY_V2 | 
Hive-ORC文件存储格式(续)的更多相关文章
- 大数据:Hive - ORC 文件存储格式
		
一.ORC File文件结构 ORC的全称是(Optimized Row Columnar),ORC文件格式是一种Hadoop生态圈中的列式存储格式,它的产生早在2013年初,最初产生自Apache ...
 - Hive - ORC 文件存储格式【转】
		
一.ORC File文件结构 ORC的全称是(Optimized Row Columnar),ORC文件格式是一种Hadoop生态圈中的列式存储格式,它的产生早在2013年初,最初产生自Apache ...
 - ORC 文件存储格式
		
1.orc列式存储概念 a)列式存储:orc并不是纯粹的列式存储,也是先基于行对数据表进行分组(行组),然后对行组进行列式存储. b)查询数据的时候不需要扫描全部数据(磁盘IO),只需查询指定列即可. ...
 - Hive(10)-文件存储格式
		
Hive支持的存储数据的格式主要有:TEXTFILE .SEQUENCEFILE.ORC.PARQUET 一. 列式存储和行式存储 左边为逻辑表,右边第一个为行式存储,第二个为列式存储 1. 行式存储 ...
 - 【图解】Hive文件存储格式
		
摘自:https://blog.csdn.net/xueyao0201/article/details/79103973 引申阅读原理篇: 大数据:Hive - ORC 文件存储格式 大数据:Parq ...
 - Hive-ORC文件存储格式
		
ORC文件格式是从Hive-0.11版本开始的.关于ORC文件格式的官方文档,以及基于官方文档的翻译内容这里就不赘述了,有兴趣的可以仔细研究了解一下.本文接下来根据论文<Major Techni ...
 - hive常见的存储格式
		
Hive常见文件存储格式 背景:列式存储和行式存储 首先来看一下一张表的存储格式: 字段A 字段B 字段C A1 B1 C1 A2 B2 C2 A3 B3 C3 A4 B4 C4 A5 B5 C5 行 ...
 - Hive文件存储格式
		
hive文件存储格式 1.textfile textfile为默认格式 存储方式:行存储 磁盘开销大 数据解析开销大 压缩的text文件 hive无法进行合并和拆分 2.sequencef ...
 - Hive文件存储格式和hive数据压缩
		
一.存储格式行存储和列存储 二.Hive文件存储格式 三.创建语句和压缩 一.存储格式行存储和列存储 行存储可以理解为一条记录存储一行,通过条件能够查询一整行数据. 列存储,以字段聚集存储,可以理解为 ...
 
随机推荐
- 机器学习技法:15 Matrix Factorization
			
Roadmap Linear Network Hypothesis Basic Matrix Factorization Stochastic Gradient Descent Summary of ...
 - [SCOI 2011]糖果
			
Description 题库链接 给出 \(N\) 个节点,节点有正点权, \(K\) 个三元组 \((X,A,B)\) 来描述节点点权之间的关系. 如果 \(X=1\) , 表示 \(A\) 的点权 ...
 - [Luogu 1730]最小密度路径
			
Description 给出一张有N个点M条边的加权有向无环图,接下来有Q个询问,每个询问包括2个节点X和Y,要求算出从X到Y的一条路径,使得密度最小(密度的定义为,路径上边的权值和除以边的数量). ...
 - [Codeforces]850E - Random Elections
			
FWT裸题,写了下模板 #include<cstdio> #define ll long long #define r register int #define MN (1<< ...
 - [ZJOI2006]物流运输 SPFA+DP
			
题目描述 物流公司要把一批货物从码头A运到码头B.由于货物量比较大,需要n天才能运完.货物运输过程中一般要转停好几个码头.物流公司通常会设计一条固定的运输路线,以便对整个运输过程实施严格的管理和跟踪. ...
 - 2015 多校联赛 ——HDU5344(水)
			
Problem Description MZL loves xor very much.Now he gets an array A.The length of A is n.He wants to ...
 - hdu 5428
			
题意:一个数是这n个数的乘,找出它一个不是素数的最小因子 求出所有数的所有质因子中最小的两个,相乘就是答案.如果所有数字的质因子个数不到两个,那么就是无解. #include<iostream& ...
 - bzoj3212 Pku3468 A Simple Problem with Integers  线段树
			
3212: Pku3468 A Simple Problem with Integers Time Limit: 1 Sec Memory Limit: 128 MBSubmit: 2046 So ...
 - mysql 及 posgresql之优劣势大比拼
			
特性 MySQL PostgreSQL 实例 通过执行 MySQL 命令(mysqld)启动实例.一个实例可以管理一个或多个数据库.一台服务器可以运行多个 mysqld 实例.一个实例管理器可以监视 ...
 - mac下IDLE无法输入中文的问题
			
解决方法是下载安装新版本的 Tcl/Tk 下载地址:http://www.activestate.com/activetcl/downloads 注意要下最新的8.5.18.0版本,安装好了再重启ID ...