命令:完成操作

hive:进去hive

show databases:显示 所有database

use wizad: 使用database wizad,或者如use aso

show tables:显示当前database下的所有表

show columns from table_name from database_name; 或show columns from database_name.table_name; :显示表中列名称

show grants for user_name@localhost;:显示一个用户的权限,显示结果类似于grant 命令

show index from table_name;:显示表的索引

show logs;:显示BDB存储引擎的日志

show warnings;:显示最后一个执行的语句所产生的错误、警告和通知

show errors;:只显示最后一个执行语句所产生的错误

desc table_name:显示表信息(字段、分区)

desc formatted wizad_mdm_raw_hdfs;:显示表详细信息  (字段、分区、路径、格式等)

效果如下:

limit使用:

select * from app_data limit 100;

count:

select count(*) from app_data;

count非常耗费时间,下面有个别人写的小例子。

SELECT type ,

count(*) ,

count(DISTINCT u) ,

count(CASE WHEN plat=1 THEN u ELSE NULL) ,

count(DISTINCT CASE WHEN plat=1 THEN u ELSE NULL) ,


count(CASE WHEN (type=2 OR type=6) THEN u ELSE NULL) ,


count(DISTINCT CASE WHEN (type=2 OR type=6) THEN u ELSE NULL)


FROM t WHERE dt in ("2012-1-12-02", "2012-1-12-03")

GROUP BY type

ORDER BY type ;

hive表按partition查询,效率高:

show partitions table_name;:显示表table_name分区

show partitions wizad_mdm_raw_hdfs; :

day=2014-12-20/adn=3

day=2014-12-21/adn=3

day=2014-12-21/adn=5

descformatted t2 partition (pt = '2014-10-17');:查看分区属性

建分区两种:

1,建表时建分区:

CREATE TABLE tab(

column1 STRING,

columnN STRING

) partitioned BY (day STRING);



2,在已存在表上加分区:

alter table wizad_mdm_raw_hdfs add partition (day='2014-12-20',adn='3') location '/user/wizad/data/wizad/raw/2014-12-20/3_1/';

alter table wizad_mdm_raw_hdfs add partition (day='2014-12-20',adn='5') location '/user/wizad/data/wizad/raw/2014-12-20/5_1/';

删除分区:

ALTER TABLE wizad_mdm_raw_hdfs DROP PARTITION (day='2014-12-23',adn='3');

ALTER TABLE wizad_mdm_raw_hdfs DROP PARTITION (day='2014-12-23',adn='5');

修改表

ALTER TABLE old_table_name RENAME TO new_table_name;:重命名

ALTER TABLE tab1 ADD COLUMNS (c1 INT, c2 STRING);:添加字段

创建外部表:

CREATE EXTERNAL TABLE wizad_mdm_dev_lmj_mapping_cookie (

cookie_id STRING,

guid STRING 

) ROW FORMAT DELIMITED 

FIELDS TERMINATED BY ',' 

LINES TERMINATED BY '\n'

stored as textfile 

location '/user/wizad/tmp/mapping_cookie/';

格式是:

CREATE EXTERNAL TABLE tab (

column1STRING,

column2STRING,

column3STRING,

column4STRING,

columnNSTRING

) ROW FORMATDELIMITED

FIELDSTERMINATED BY '\t'

stored astextfile

location'hdfs://namenode/tmp/lmj/tab/';

hive语句执行环境相关参数设定:

SET mapred.job.queue.name=queue3;

SET hbase.client.scanner.caching=5000;

SET hbase.zookeeper.quorum=datanode06,datanode07,datanode08;

set zookeeper.znode.parent=/hbase;

set hbase.regionserver.lease.period=180000;

将查询结果保存到本地

INSERT OVERWRITE LOCAL DIRECTORY '/home/wizad/lmj/'

ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' 

select cookie_id,rowkey,fixeddim_map

from wizad_mdm_main_from_hbase as a JOIN wizad_mdm_dev_lmj_edition_20141120 as w 

ON (w.guid = a.rowkey);

hive语句性能优化:http://wenku.baidu.com/link?url=eahFKmcvJ08Jj0K8lL6D7Q-6WNwSPlUUzz96MFLDRd0dGwlZEkVvMSwP2RaGtfbvI6dSdBBInTIfBEQXh6iW40COgIFiWkIc1KDHVlNGA_i

这里有一个优化的小例子:http://www.myexception.cn/internet/477451.html

hive使用过的基本命令的更多相关文章

  1. Hive基本命令整理

    创建表: hive> CREATE TABLE pokes (foo INT, bar STRING);          Creates a table called pokes with t ...

  2. Hive基本命令解析

    1. Hive的分区作用 命令:创建分区 create table t_sz_part(id int, name string) partitioned by (country string) row ...

  3. Hive shell 基本命令

    首先连接 hive shell 直接输入 hive启动, 使用--开头的字符串来表示注释 hive>quit; --退出hive hive> exit; --exit会影响之前的使用,所以 ...

  4. Hive学习之七《 Sqoop import 从关系数据库抽取到HDFS》

    一.什么是sqoop Sqoop是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql.postgresql...)间进行数据的传递,可以将一个关系型数据库(例如 :MySQL ...

  5. Hive基础概念、安装部署与基本使用

    1. Hive简介 1.1 什么是Hive Hives是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供类SQL查询功能. 1.2 为什么使用Hive ① 直接使用 ...

  6. docker安装hive笔记

    前两篇文章介绍了docker的基本命令如何安装hadoop 那么大家会比较了解docker的基本语法的安装过程.那么咱们今天来一起安装一下hive. 安装 1.下载gitHub,地址:https:// ...

  7. Hive/hbase/sqoop的基本使用教程~

    Hive/hbase/sqoop的基本使用教程~ ###Hbase基本命令start-hbase.sh     #启动hbasehbase shell      #进入hbase编辑命令 list  ...

  8. Hive Shell 命令详解

    Hive服务介绍 Hive默认提供的cli(shell)服务,如果需要启动其他服务,那么需要service参数来启动其他服务,比如thrift服务.metastore服务等.可以通过命令hive -- ...

  9. Hive 1.2.1&Spark&Sqoop安装指南

    目录 目录 1 1. 前言 1 2. 约定 2 3. 服务端口 2 4. 安装MySQL 2 4.1. 安装MySQL 2 4.2. 创建Hive元数据库 4 5. 安装步骤 5 5.1. 下载Hiv ...

随机推荐

  1. mysql 远程连接配置

    近期买了阿里云服务器,服务器 安装了mysql,需要远程操作mysql数据库,但是远程不配置的话,连接不上去的.需要配置 .具体的配置如下: 先看看my.cnf是否绑定了本机,如果绑定了地址就解绑吧. ...

  2. Nginx的负载均衡 - 加权轮询 (Weighted Round Robin) 上篇

    Nginx版本:1.9.1 我的博客:http://blog.csdn.net/zhangskd 算法介绍 来看一个简单的Nginx负载均衡配置. http { upstream cluster { ...

  3. JSP 2.x 自定义标签

    JSP 1.x的标签,虽然使用起来非常灵活,但是比较复杂,JSP 2.x提供了一组简化的标签写法 SimpleTagSupport是SimpleTag接口的子类,同时支持参数和标签体,最核心的方法时d ...

  4. Xcode中为何要为设置bundle和App分别设置两份一样的图片资源

    大熊猫猪·侯佩原创或翻译作品.欢迎转载,转载请注明出处. 如果觉得写的不好请多提意见,如果觉得不错请多多支持点赞.谢谢! hopy ;) 我们知道在App设置的bundle中有时也会用到图片资源,而在 ...

  5. 在Android中使用AlarmManager

    AlarmManager是Android中的一种系统级别的提醒服务,它会为我们在特定的时刻广播一个指定的Intent.而使用Intent的时候,我们还需要它执行一个动作,如startActivity, ...

  6. Oracle dblink详解

     database link概述 database link是定义一个数据库到另一个数据库的路径的对象,database link允许你查询远程表及执行远程程序.在任何分布式环境里,databas ...

  7. AsyncTask(异步任务)讲解-android的学习之旅(四十六)

    AsyncTask简介 Android的UI线程主要处理用户的按键,触屏和View的绘制等,不能在里面处理耗时的操作,否则会出现ANR,因此耗时的操作要单独开一个线程处理,但是新线程不能直接处理UI线 ...

  8. [C]simple code of count input lines,words,chars

    This is a simple C program which can count input lines, words and chars. But the number of words are ...

  9. 为什么选择PostgreSQL而不是MySQL

    David Bolton是一名独立开发者,他使用PostgreSQL和MySQL都已有超过十年的时间.近日,他撰文阐述了选择PostgreSQL而不是MySQL的理由.他认为,MySQL之所以仍然如此 ...

  10. RabbitMQ消息队列的小伙伴: ProtoBuf(Google Protocol Buffer)

    什么是ProtoBuf? 一种轻便高效的结构化数据存储格式,可以用于结构化数据串行化,或者说序列化.它很适合做数据存储或 RPC 数据交换格式.可用于通讯协议.数据存储等领域的语言无关.平台无关.可扩 ...