hive的数据查询一般会扫描整个表,当表数据太大时,就会消耗些时间,有时候我们只需要对部分数据感兴趣,所以hive引入了分区的概念

   hive的表分区区别于一般的分布式分区(hash分区,范围分区,一致性分区),hive的分区是比较简单的。他是根据hive的表结构,分区的字段设置将数据按目录存放起来,相当于简单的索引
   hive表分区需要在表模式创建的时候指定模式才能使用,他的字段是虚拟的列,不存在表数据中。表分区在表模式创建之后使用之前使用alert table 来添加具体的分区,才能使用
 
添加分区
alert table tableName add
partition(ds='2016-12-16',coutry='beiJing')
location='/opt/hive/beiJing/part2016-12-16'
partition(ds='2016-12-17',coutry='beiJing')
location='/opt/hive/beiJing/part2016-12-17'
删除分区
alert table tableName drop partitionName,partitionName1,partitionName2
例:
alert table tableName drop partition(ds='2016-12-16',coutry='beiJing')
1)删除分区会连元数据和数据一并删除
2)在为表指定具体分区时,在创建表时必须要为表添加对应的模式,否则会抛出异常
3)分区的名称不能与表属性的名称一样
4)还可以创建多个分区,相当于多级索引的功能
 
在使用hsql向表中添加数据,如果hsql中的分区,在hdfs中没有,则hive会根据hsql自动新建分区(可能有的hive版本不支持自动创建分区,这里使用的是2.1.0)
insert overwrite table zhangTest partition(sexual=2) select studentid, sex,address,email from student_3 where sex=0
 
 
删除表
alert table drop tableName
删除表将会数据和元数据一起删除,如果定义了trash,那么删除的数据将会到trash/current目录下 。如果定义了外部表就只会删除元数据,不会删除数据
 
删除和创建视图
create view viewName [{col_name},....]
as select....
目前只有hive6.0之后的版本才有这个功能,视图是只读的,不能对其进行load/insert/alert操作。
视图中有可能引用了order by 或者limit 子句,如果一个查询语句引用了这样一个视图,那么会优先查询视图中的语句,然后返回结果按照视图中的结果返回
drop vieww viewName//删除指定的视图
 
创建或删除函数
creeate temporary funaction fun_name as classs_name//
drop temporary fun_name//
 
展示描述语句(显示语句可以使用正则表达式进行匹配“*”,“|”“[]”)
show tables identifier_with_wildcards
显示表或者分区扩展表
show table extended ..
显示函数
show function "a"

hive 表分区操作的更多相关文章

  1. hive表分区操作

    1.修复表分区命令 msck repair table table_name; 2.添加表分区操作 alter table table_name add partition(month_id='201 ...

  2. 如何快速把hdfs数据动态导入到hive表

    1. hdfs 文件   {"retCode":1,"retMsg":"Success","data":[{" ...

  3. HDFS文件和HIVE表的一些操作

    1. hadoop fs -ls  可以查看HDFS文件 后面不加目录参数的话,默认当前用户的目录./user/当前用户 $ hadoop fs -ls 16/05/19 10:40:10 WARN ...

  4. 用puthivestreaming把hdfs里的数据流到hive表

    全景图:   1. 创建hive表 CREATE TABLE IF NOT EXISTS newsinfo.test( name STRING ) CLUSTERED BY (name)INTO 3 ...

  5. spark使用Hive表操作

    spark Hive表操作 之前很长一段时间是通过hiveServer操作Hive表的,一旦hiveServer宕掉就无法进行操作. 比如说一个修改表分区的操作 一.使用HiveServer的方式 v ...

  6. spark+hcatalog操作hive表及其数据

    package iie.hadoop.hcatalog.spark; import iie.udps.common.hcatalog.SerHCatInputFormat; import iie.ud ...

  7. 【原】创建Hive表,分号分隔符“;”引起的异常

    [障碍再现] 在创建支持Map数据结构的Hive表时,抛出如下异常 hive> create table tab_map(name string,info map<string,strin ...

  8. Hive表分区

    必须在表定义时创建partition a.单分区建表语句:create table day_table (id int, content string) partitioned by (dt stri ...

  9. sqlserver 2008表分区操作

    表分区操作步骤 1.设计表进行分区的方案,水平分区.垂直分区 a.水平切割将减少表的行数,这样可以将历史数据归档,减少表大小,提高访问速度. b.垂直切割将分为主表和从表方式,将主要的列字段存放在主表 ...

随机推荐

  1. 【Chrome】新建Chrome插件,新建,事件行为,本地存储

    源:walkingq 1,新建:静态网站+manifest.json:[注:mainifest_version是chrome 18以后新增key] manifest.json 截图 2,事件行为: 3 ...

  2. CommandBehavior.CloseConnection

    cmd.commandTimeout设置为了1秒,sql执行了很长时间还没有超时, cmd.ExecuteReader(CommandBehavior.CloseConnection)这样就会立马重现 ...

  3. caffe中accuracy和loss用python从log日志里面获取

    import re import pylab as pl import numpy as np if __name__=="__main__": accuracys=[] loss ...

  4. ETL基础1(概念)

    抽取(Extract): 一般抽取过程需要连接到不同的数据源,以便为随后的步骤提供数据.这一部分看上去简单而琐碎,实际上它是 ETL 解决方案的成功实施的一个主要障碍. 转换(Transform): ...

  5. SQL 优化tips

    1. 陷阱, 1)几个表进行join,然后过滤 等价于 2)分别过滤为小表后,再join? 并不完全.2)确实比1)效率高,但要注意一些NULL值过滤.否则2)得到的结果比1)多

  6. bzoj 4553 && HEOI2016 day1t3 seq

    一个序列在所有变换中都单调不降的条件是i<j,a[i]<=min[j],mx[i]<=a[j],所以套CDQ就行了. #include<iostream> #includ ...

  7. python 之 PIP 安装

    1.安装的必备包 pip 和 setuptool 都要有, 这个可以从python.org网站下载 //  setuptool 安装  下载地址 https://pan.baidu.com/s/1gf ...

  8. java 随机数 优惠码 生成 随机字串

    package test; import java.util.HashSet; import java.util.Random; import java.util.Set; public class ...

  9. ARCGIS9.3安装说明

    1) 安装LMSetup.exe"    其中第一步选择第一项,并使用"37102011.efl9"文件做为lic文件,在使用之前需要将该文件中的主机名改为本机的机器名, ...

  10. Mac OSX定位命令路径的方法

    可以使用which命令来定位一个命令. http://www.cyberciti.biz/faq/how-do-i-find-the-path-to-a-command-file/