CREATE TABLE page_view(viewTime INT, userid BIGINT,p_date timestamp,
page_url STRING, referrer_url varchar(200),
ip STRING COMMENT 'IP Address of the User')
COMMENT 'This is the page view table'
PARTITIONED BY(dt STRING, country STRING)
STORED AS SEQUENCEFILE
TBLPROPERTIES ('creator'='wx','date'='2015-07-18'); CREATE TABLE students (name VARCHAR(64), age INT, gpa DECIMAL(3, 2))
CLUSTERED BY (age) INTO 2 BUCKETS STORED AS rcfile; CREATE TABLE user_info_bucketed(user_id BIGINT, firstname STRING, lastname STRING)
COMMENT 'A bucketed copy of user_info'
PARTITIONED BY(ds STRING)
CLUSTERED BY(user_id) SORTED BY(firstname) INTO 3 BUCKETS;
Show Databases
hive> show databases;
default
test
hive> SHOW DATABASES LIKE 'te*';
test
hive> SHOW DATABASES LIKE 'te*|de*';
default
test

Show Tables

hive> SHOW TABLES;
students
user_info_bucketed
hive> SHOW TABLES IN test;
students
user_info_bucketed
hive> use test;
hive> SHOW TABLES 'user*';
user_info_bucketed
hive> SHOW TABLES 'user*|stu*';
students
user_info_bucketed

Show Partitions

hive> SHOW PARTITIONS user_info_bucketed;
ds=2015-07-20
ds=2015-07-25
ds=2015-07-30
hive> SHOW PARTITIONS user_info_bucketed PARTITION(ds='2015-07-25');
ds=2015-07-25
hive> SHOW PARTITIONS test.user_info_bucketed PARTITION(ds='2015-07-25');
ds=2015-07-25
hive> SHOW TABLE EXTENDED in test LIKE 'user_info_bucketed' PARTITION(ds='2015-07-20');
tableName:user_info_bucketed
owner:wx
location:hdfs://ns1/user/hive/warehouse/test.db/user_info_bucketed/ds=2015-07-20
inputformat:org.apache.hadoop.mapred.TextInputFormat
outputformat:org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat
columns:struct columns { i64 user_id, string firstname, string lastname}
partitioned:true
partitionColumns:struct partition_columns { string ds}
totalNumberFiles:3
totalFileSize:72
maxFileSize:36
minFileSize:14
lastAccessTime:1437793073583
lastUpdateTime:1437823862864

Show Table Properties

hive> SHOW TBLPROPERTIES page_view;
comment This is the page view table
creator wx
date 2015-07-18
transient_lastDdlTime 1437825559
hive> SHOW TBLPROPERTIES page_view("creator");
wx

Show Create Table

hive> SHOW CREATE TABLE page_view;

CREATE TABLE `page_view`(

  `viewtime` int,

  `userid` bigint,

  `p_date` timestamp,

  `page_url` string,

  `referrer_url` varchar(200),

  `ip` string COMMENT 'IP Address of the User')

COMMENT 'This is the page view table'

PARTITIONED BY (

  `dt` string,

  `country` string)

ROW FORMAT SERDE

  'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'

STORED AS INPUTFORMAT

  'org.apache.hadoop.mapred.SequenceFileInputFormat'

OUTPUTFORMAT

  'org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat'

LOCATION

  'hdfs://ns1/user/hive/warehouse/test.db/page_view'

TBLPROPERTIES (

  'creator'='wx',

  'date'='2015-07-18',

  'transient_lastDdlTime'='1437825559')

hive> SHOW CREATE TABLE user_info_bucketed;

CREATE TABLE `user_info_bucketed`(

  `user_id` bigint,

  `firstname` string,

  `lastname` string)

COMMENT 'A bucketed copy of user_info'

PARTITIONED BY (

  `ds` string)

CLUSTERED BY (

  user_id)

SORTED BY (

  firstname ASC)

INTO 3 BUCKETS

ROW FORMAT SERDE

  'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'

STORED AS INPUTFORMAT

  'org.apache.hadoop.mapred.TextInputFormat'

OUTPUTFORMAT

  'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'

LOCATION

  'hdfs://ns1/user/hive/warehouse/test.db/user_info_bucketed'

TBLPROPERTIES (

  'transient_lastDdlTime'='1437793010')

hive> SHOW CREATE TABLE test.students;

CREATE TABLE `test.students`(

  `name` varchar(64),

  `age` int,

  `gpa` decimal(3,2))

CLUSTERED BY (

  age)

INTO 2 BUCKETS

ROW FORMAT SERDE

  'org.apache.hadoop.hive.serde2.columnar.LazyBinaryColumnarSerDe'

STORED AS INPUTFORMAT

  'org.apache.hadoop.hive.ql.io.RCFileInputFormat'

OUTPUTFORMAT

  'org.apache.hadoop.hive.ql.io.RCFileOutputFormat'

LOCATION

  'hdfs://ns1/user/hive/warehouse/test.db/students'

TBLPROPERTIES (

  'transient_lastDdlTime'='1437793374')

Show Indexes

hive> SHOW INDEXES ON user_info_bucketed;

inx_1                   user_info_bucketed      user_id                 test__user_info_bucketed_inx_1__        compact                 index-my!!!!       

hive> SHOW FORMATTED INDEXES ON user_info_bucketed;

idx_name                tab_name                col_names               idx_tab_name                    idx_type                comment 

inx_1                   user_info_bucketed      user_id                 test__user_info_bucketed_inx_1__        compact                 index-my!!!!       

hive> SHOW FORMATTED INDEXES ON user_info_bucketed IN test;

inx_1                   user_info_bucketed      user_id                 test__user_info_bucketed_inx_1__        compact                 index-my!!!!

Show Columns

hive> SHOW COLUMNS IN page_view;

viewtime           

userid             

p_date             

page_url           

referrer_url       

ip                 

dt                 

country            

hive> SHOW COLUMNS IN page_view in test;

viewtime           

userid             

p_date             

page_url           

referrer_url       

ip                 

dt                 

country

Show Functions

hive> SHOW FUNCTIONS;

hive> SHOW FUNCTIONS "a.*";

SHOW FUNCTIONS is deprecated, please use SHOW FUNCTIONS LIKE instead.

abs

acos

add_months

and

array

array_contains

ascii

asin

assert_true

atan

avg

hive> SHOW FUNCTIONS LIKE "a*";

abs

acos

add_months

and

array

array_contains

ascii

asin

assert_true

atan

avg

hive> SHOW FUNCTIONS LIKE "*a*";

Show Conf

Note that SHOW CONF does not show the current value of a configuration property. 

hive> SHOW CONF 'hive.exec.parallel';
false BOOLEAN Whether to execute jobs in parallel

Hive show的更多相关文章

  1. 初识Hadoop、Hive

    2016.10.13 20:28 很久没有写随笔了,自打小宝出生后就没有写过新的文章.数次来到博客园,想开始新的学习历程,总是被各种琐事中断.一方面确实是最近的项目工作比较忙,各个集群频繁地上线加多版 ...

  2. Hive安装配置指北(含Hive Metastore详解)

    个人主页: http://www.linbingdong.com 本文介绍Hive安装配置的整个过程,包括MySQL.Hive及Metastore的安装配置,并分析了Metastore三种配置方式的区 ...

  3. Hive on Spark安装配置详解(都是坑啊)

    个人主页:http://www.linbingdong.com 简书地址:http://www.jianshu.com/p/a7f75b868568 简介 本文主要记录如何安装配置Hive on Sp ...

  4. HIVE教程

    完整PDF下载:<HIVE简明教程> 前言 Hive是对于数据仓库进行管理和分析的工具.但是不要被“数据仓库”这个词所吓倒,数据仓库是很复杂的东西,但是如果你会SQL,就会发现Hive是那 ...

  5. 基于Ubuntu Hadoop的群集搭建Hive

    Hive是Hadoop生态中的一个重要组成部分,主要用于数据仓库.前面的文章中我们已经搭建好了Hadoop的群集,下面我们在这个群集上再搭建Hive的群集. 1.安装MySQL 1.1安装MySQL ...

  6. hive

    Hive Documentation https://cwiki.apache.org/confluence/display/Hive/Home 2016-12-22  14:52:41 ANTLR  ...

  7. 深入浅出数据仓库中SQL性能优化之Hive篇

    转自:http://www.csdn.net/article/2015-01-13/2823530 一个Hive查询生成多个Map Reduce Job,一个Map Reduce Job又有Map,R ...

  8. Hive读取外表数据时跳过文件行首和行尾

    作者:Syn良子 出处:http://www.cnblogs.com/cssdongl 转载请注明出处 有时候用hive读取外表数据时,比如csv这种类型的,需要跳过行首或者行尾一些和数据无关的或者自 ...

  9. Hive索引功能测试

    作者:Syn良子 出处:http://www.cnblogs.com/cssdongl 转载请注明出处 从Hive的官方wiki来看,Hive0.7以后增加了一个对表建立index的功能,想试下性能是 ...

  10. 轻量级OLAP(二):Hive + Elasticsearch

    1. 引言 在做OLAP数据分析时,常常会遇到过滤分析需求,比如:除去只有性别.常驻地标签的用户,计算广告媒体上的覆盖UV.OLAP解决方案Kylin不支持复杂数据类型(array.struct.ma ...

随机推荐

  1. Python 网络编程相关知识学习

    Python 网络编程 Python 提供了两个级别访问的网络服务.: 低级别的网络服务支持基本的 Socket,它提供了标准的 BSD Sockets API,可以访问底层操作系统Socket接口的 ...

  2. mysql中如何查看某个日期所在的周一是几号?某个日期所在的一周开始时间是几号?

    需求描述: 在编写SQL的时候,有这么个需求,就是要查出来某个日期所在的周一是几号,进行了测试,在此进行记录下. 测试过程: 议题:查看某个日期所在的周一是几号 分析:如果某个日期是周一,那么加上整数 ...

  3. 错误 Unable to find vcvarsall.bat 的终极无敌最完美的解决办法

    Windows 上通过 pip 安装 python 包,经常会出现这种错误. 如:pip install pyodbc. 这种错误的简单明了解释就是:python 编译器找不到计算机上面的 VC 编译 ...

  4. [Converge] Backpropagation Algorithm

    Ref: CS231n Winter 2016: Lecture 4: Backpropagation Ref: How to implement a NN:中文翻译版本 Ref: Jacobian矩 ...

  5. Linux Eclipse 运行Protobuf

    安装环境Ubuntu 14.04 64 bit 安装过程分为三步 1. Linux下安装Protobuf 2. Eclipse下安装protobuf.dt插件 3. Eclipse下配置动态链接库并运 ...

  6. ASP.NET MVC 4 (二)控制器

    MVC中控制器负责处理请求,由它操作数据模型,最后返回视图给用户. IController接口 所有的控制器类以Controller结尾,必须实现System.Web.Mvc.IController接 ...

  7. webstrom 2017 安装及配置

    下载安装:http://www.jetbrains.com/webstorm/ 激活:安装完成后,在打开的 License Activation 窗口中选择 License server. 在输入框输 ...

  8. ios开发之NSString用strong还是用copy?

    代码如下: 1,声明 @property(nonatomic,strong)NSString *firstName; @property(nonatomic,copy)NSString *second ...

  9. linux-nohup后台运行

    先说一下linux重定向: 0.1和2分别表示标准输入.标准输出和标准错误信息输出,可以用来指定需要重定向的标准输入或输出. 在一般使用时,默认的是标准输出,既1.当我们需要特殊用途时,可以使用其他标 ...

  10. Specified VM install not found: type Standard VM, name Java

    Specified VM install not found: type Standard VM, name Java 下了一个新项目,使用SpringSource中执行ant脚本时,莫名提示以下错误 ...