一、为什么要创建分区表

1、select查询中会扫描整个表内容,会消耗大量时间。由于相当多的时候人们只关心表中的一部分数据,

故建表时引入了分区概念。

2、hive分区表:是指在创建表时指定的partition的分区空间,若需要创建有分区的表,

需要在create表的时候调用可选参数partitioned by,详见表创建的语法结构。

二、实现创建、删除分区表

注意:
1、一个表可以拥有一个或者多个分区,每个分区以文件夹的形式单独存在表文件夹的目录下。

2、hive的表和列名不区分大小写(故建表时,都是小写)

3、分区是以字段的形式在表结构中存在,通过"desc table_name"命令可以查看到字段存在,该字段仅是分区的标识。

4、建表的语法(建分区可参见PARTITIONED BY参数):

CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name [(col_name data_type [COMMENT col_comment], ...)] [COMMENT table_comment] 
[PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)] 
[CLUSTERED BY (col_name, col_name, ...) [SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS] 
[ROW FORMAT row_format]
[STORED AS file_format] 
[LOCATION hdfs_path]

5、分区建表分为2种,一种是单分区,也就是说在表文件夹目录下只有一级文件夹目录。另外一种是多分区,表文件夹下出现多文件夹嵌套模式。

a、单分区建表语句:create table test_table (id int, content string) partitioned by (dt string);
   单分区表,按天分区,在表结构中存在id,content,dt三列。

b、双分区建表语句:create table test_table_2 (id int, content string) partitioned by (dt string, hour string);
   双分区表,按天和小时分区,在表结构中新增加了dt和hour两列。

6、增加分区表语法(表已创建,在此基础上添加分区):

ALTER TABLE table_name ADD partition_spec [ LOCATION 'location1' ] partition_spec [ LOCATION 'location2' ] ... partition_spec: : PARTITION (partition_col = partition_col_value, partition_col = partiton_col_value, ...)

用户可以用 ALTER TABLE ADD PARTITION 来向一个表中增加分区。当分区名是字符串时加引号。例:

ALTER TABLE test_table ADD PARTITION (dt='2016-08-08', hour='10') location '/path/uv1.txt' PARTITION (dt='2017-08-08', hour='12') location '/path/uv2.txt';

7、删除分区语法:

ALTER TABLE table_name DROP partition_spec, partition_spec,...

用户可以用 ALTER TABLE DROP PARTITION 来删除分区。分区的元数据和数据将被一并删除。例:

ALTER TABLE test_table DROP PARTITION (dt='2016-08-08', hour='10');

8、数据加载进分区表中语法:

LOAD DATA [LOCAL] INPATH 'filepath' [OVERWRITE] INTO TABLE tablename [PARTITION (partcol1=val1, partcol2=val2 ...)]

例:
LOAD DATA INPATH '/user/uv.txt' INTO TABLE test_table_2 PARTITION(dt='2016-08-08', hour='08'); LOAD DATA local INPATH '/user/hh/' INTO TABLE test_table  partition(dt='2013-02- 07');

当数据被加载至表中时,不会对数据进行任何转换。Load操作只是将数据复制至Hive表对应的位置。数据加载时在表下自动创建一个目录,文件存放在该分区下。

9、基于分区的查询的语句:

SELECT test_table.* FROM test_table WHERE test_table.dt>= '2008-08-08';

10、查看双分区语句:
hive> show partitions test_table_2; 
OK 
dt=2016-08-08/hour=10 
dt=2016-08-09/hour=10
dt=2008-08-09/hour=10

 

举例:

  1. CREATE TABLE `incr_test_2`(
  2. `ord_id` string,
  3. `ord_no` string,
  4. `creat_date` string,
  5. `creat_time` string,
  6. `time_stamp` string)
  7. COMMENT 'Imported by sqoop on 2016/08/08 14:53:43'
  8. PARTITIONED BY (
  9. `log_time` string)
  10. ROW FORMAT SERDE
  11. 'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
  12. WITH SERDEPROPERTIES (
  13. 'field.delim'='\u0001',
  14. 'line.delim'='\n',
  15. 'serialization.format'='\u0001')
  16. STORED AS INPUTFORMAT
  17. 'org.apache.hadoop.mapred.TextInputFormat'
  18. OUTPUTFORMAT
  19. 'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
  20. ;

查看对应的建表信息:

  1. hive (origin_test)> show create table incr_test_2;
  2. OK
  3. CREATE TABLE `incr_test_2`(
  4. `ord_id` string,
  5. `ord_no` string,
  6. `creat_date` string,
  7. `creat_time` string,
  8. `time_stamp` string)
  9. COMMENT 'Imported by sqoop on 2016/08/04 14:53:43'
  10. PARTITIONED BY (
  11. `log_time` string)
  12. ROW FORMAT SERDE
  13. 'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
  14. WITH SERDEPROPERTIES (
  15. 'field.delim'='\u0001',
  16. 'line.delim'='\n',
  17. 'serialization.format'='\u0001')
  18. STORED AS INPUTFORMAT
  19. 'org.apache.hadoop.mapred.TextInputFormat'
  20. OUTPUTFORMAT
  21. 'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
  22. LOCATION
  23. 'hdfs://nameservice/user/hive/warehouse/origin_test.db/incr_test_2'
  24. TBLPROPERTIES (
  25. 'transient_lastDdlTime'='1470293625')

查看分区表:

  1. -- 查看单分区:
  2. hive (origin_test)>show partitions incr_test_2;
  3. OK
  4. log_time=20160917182510
  5. log_time=20160917192512
  6. log_time=20160917202512
  7. log_time=20160917212512
  8. log_time=20160917222510
  9. log_time=20160917232511
  10. log_time=20160918002525
  11. log_time=20160918012514
  12. log_time=20160918022513
  13. log_time=20160918032510
  14. log_time=20160918042510
  15. log_time=20160918052511
  16. log_time=20160918062513
  17. log_time=20160918072510
  18. log_time=20160918082510
  19. log_time=20160918092511
  20. log_time=20160918102510
  21. log_time=20160918112511
  22. log_time=20160918122512
  23. log_time=20160918132511
  24. Time taken: 0.264 seconds, Fetched: 20 row(s)
  25. hive (origin_ennenergy_transport)>

hive创建表的更多相关文章

  1. hive 创建表和导入数据实例

    //创建数据库create datebase hive;//创建表create table t_emp(id int,name string,age int,dept_name string,like ...

  2. Hive创建表|数据的导入|数据导出的几种方式

    * Hive创建表的三种方式 1.使用create命令创建一个新表 例如:create table if not exists db_web_data.track_log(字段) partitione ...

  3. Hive 创建表

    创建表的三种方式: 方式一:新建表结构 CREATE TABLE emp( empno int, ename string ) ROW FORMAT DELIMITED FIELDS TERMINAT ...

  4. 2.4 hive创建表实例讲解

    一.create table ## 员工表 create table IF NOT EXISTS default.emp( empno int, ename string, job string, m ...

  5. hive创建表时报错

    这是因为mysql字符集的原因.修改mysql的字符集. mysql> alter database hive character set latin1; 参考博客:https://blog.c ...

  6. hive 普通创建表和跟新列操作

    创建表 CREATE TABLE if not exists student ( student_id int, sex int, address String, email String ) 这里需 ...

  7. 基于CDH5.x 下面使用eclipse 操作hive 。使用java通过jdbc连接HIVESERVICE 创建表

    基于CDH5.x 下面使用eclipse 操作hive .使用java通过jdbc连接HIVESERVICE 创建表 import java.sql.Connection; import java.s ...

  8. Hive创建内部表、外部表

    使用hive需要hive环境 启动Hive 进入HIVE_HOME/bin,启动hive ./hive 内部表 建表 hive> create table fz > (id int,nam ...

  9. hive中创建表失败

    使用create table命令创建表失败,如下错误信息: hive> create table test(id int,name string,age int,sex string); FAI ...

随机推荐

  1. Tensorflow2 快速简单安装命令

    使用如下命令 pip3 install numpy pandas matplotlib sklearn tensorflow==2.0.0-alpha0 -i https://pypi.doubani ...

  2. ES6高级技巧(三)

    html转译 let c='<a href="#">Me & you</a>'.replace(/[&<>'"]/g, ...

  3. 引入 ServletContextListener @Autowired null 解决办法

    public class ScheduleController implements ServletContextListener { @Autowired private ScheduleServi ...

  4. JavaScript入门(三)

    JavaScript入门篇—JSONP的应用 什么是JSONP 个人理解:将服务器端返回的json数据封装成JavaScript对象,非正式传输协议. JSONP解决了什么问题 Ajax不支持跨域请求 ...

  5. 几分钟打造超级好看又好用的zsh command line环境

    source: https://www.pexels.com/photo/office-working-app-computer-97077/ 注:这篇适用于用MAC 开发的developer 身为程 ...

  6. 如何在.Net Mvc中让Get,Post请求访问同一个Action的方法

    [HttpPost] [ActionName("Index")] public ActionResult Post(Models.WeChatRequestModel model) ...

  7. Go的运算符

    1 算术运算符 运算符 术语 示例 结果 + 加 10 + 5 15 - 减 10 - 5 5 * 乘 10 * 5 50 / 除 10 / 5 2 % 取模(取余) 10 % 3 1 ++ 后自增, ...

  8. 当前标识(IIS APPPOOL\DefaultAppPool)没有对“C:\Windows\Microsoft.NET\Framework64\v4.0.30319\Temporary ASP.NET Files”的写访问权限

    找到或增加这个目录,给他增加权限.

  9. CSS揭秘-半透明边框与多重边框

    场景一: 实现半透明边框: 由于CSS样式的默认行为,背景色的渲染范围是 content+padding+border. 半透明边框被主调色影响, 实现的效果为   解决方案: 使用backgroun ...

  10. Web消息推送框架windows部署实践

    一.官方下载地址:https://www.workerman.net/web-sender 二.解压至任意目录下,双击start_for_win.bat,效果如下图: 三.打开Chrome浏览器访问: ...