命令:完成操作

hive:进去hive

show databases:显示 所有database

use wizad: 使用database wizad,或者如use aso

show tables:显示当前database下的所有表

show columns from table_name from database_name; 或show columns from database_name.table_name; :显示表中列名称

show grants for user_name@localhost;:显示一个用户的权限,显示结果类似于grant 命令

show index from table_name;:显示表的索引

show logs;:显示BDB存储引擎的日志

show warnings;:显示最后一个执行的语句所产生的错误、警告和通知

show errors;:只显示最后一个执行语句所产生的错误

desc table_name:显示表信息(字段、分区)

desc formatted wizad_mdm_raw_hdfs;:显示表详细信息  (字段、分区、路径、格式等)

效果如下:

limit使用:

select * from app_data limit 100;

count:

select count(*) from app_data;

count非常耗费时间,下面有个别人写的小例子。

SELECT type ,

count(*) ,

count(DISTINCT u) ,

count(CASE WHEN plat=1 THEN u ELSE NULL) ,

count(DISTINCT CASE WHEN plat=1 THEN u ELSE NULL) ,


count(CASE WHEN (type=2 OR type=6) THEN u ELSE NULL) ,


count(DISTINCT CASE WHEN (type=2 OR type=6) THEN u ELSE NULL)


FROM t WHERE dt in ("2012-1-12-02", "2012-1-12-03")

GROUP BY type

ORDER BY type ;

hive表按partition查询,效率高:

show partitions table_name;:显示表table_name分区

show partitions wizad_mdm_raw_hdfs; :

day=2014-12-20/adn=3

day=2014-12-21/adn=3

day=2014-12-21/adn=5

descformatted t2 partition (pt = '2014-10-17');:查看分区属性

建分区两种:

1,建表时建分区:

CREATE TABLE tab(

column1 STRING,

columnN STRING

) partitioned BY (day STRING);



2,在已存在表上加分区:

alter table wizad_mdm_raw_hdfs add partition (day='2014-12-20',adn='3') location '/user/wizad/data/wizad/raw/2014-12-20/3_1/';

alter table wizad_mdm_raw_hdfs add partition (day='2014-12-20',adn='5') location '/user/wizad/data/wizad/raw/2014-12-20/5_1/';

删除分区:

ALTER TABLE wizad_mdm_raw_hdfs DROP PARTITION (day='2014-12-23',adn='3');

ALTER TABLE wizad_mdm_raw_hdfs DROP PARTITION (day='2014-12-23',adn='5');

修改表

ALTER TABLE old_table_name RENAME TO new_table_name;:重命名

ALTER TABLE tab1 ADD COLUMNS (c1 INT, c2 STRING);:添加字段

创建外部表:

CREATE EXTERNAL TABLE wizad_mdm_dev_lmj_mapping_cookie (

cookie_id STRING,

guid STRING 

) ROW FORMAT DELIMITED 

FIELDS TERMINATED BY ',' 

LINES TERMINATED BY '\n'

stored as textfile 

location '/user/wizad/tmp/mapping_cookie/';

格式是:

CREATE EXTERNAL TABLE tab (

column1STRING,

column2STRING,

column3STRING,

column4STRING,

columnNSTRING

) ROW FORMATDELIMITED

FIELDSTERMINATED BY '\t'

stored astextfile

location'hdfs://namenode/tmp/lmj/tab/';

hive语句执行环境相关参数设定:

SET mapred.job.queue.name=queue3;

SET hbase.client.scanner.caching=5000;

SET hbase.zookeeper.quorum=datanode06,datanode07,datanode08;

set zookeeper.znode.parent=/hbase;

set hbase.regionserver.lease.period=180000;

将查询结果保存到本地

INSERT OVERWRITE LOCAL DIRECTORY '/home/wizad/lmj/'

ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' 

select cookie_id,rowkey,fixeddim_map

from wizad_mdm_main_from_hbase as a JOIN wizad_mdm_dev_lmj_edition_20141120 as w 

ON (w.guid = a.rowkey);

hive语句性能优化:http://wenku.baidu.com/link?url=eahFKmcvJ08Jj0K8lL6D7Q-6WNwSPlUUzz96MFLDRd0dGwlZEkVvMSwP2RaGtfbvI6dSdBBInTIfBEQXh6iW40COgIFiWkIc1KDHVlNGA_i

这里有一个优化的小例子:http://www.myexception.cn/internet/477451.html

hive使用过的基本命令的更多相关文章

  1. Hive基本命令整理

    创建表: hive> CREATE TABLE pokes (foo INT, bar STRING);          Creates a table called pokes with t ...

  2. Hive基本命令解析

    1. Hive的分区作用 命令:创建分区 create table t_sz_part(id int, name string) partitioned by (country string) row ...

  3. Hive shell 基本命令

    首先连接 hive shell 直接输入 hive启动, 使用--开头的字符串来表示注释 hive>quit; --退出hive hive> exit; --exit会影响之前的使用,所以 ...

  4. Hive学习之七《 Sqoop import 从关系数据库抽取到HDFS》

    一.什么是sqoop Sqoop是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql.postgresql...)间进行数据的传递,可以将一个关系型数据库(例如 :MySQL ...

  5. Hive基础概念、安装部署与基本使用

    1. Hive简介 1.1 什么是Hive Hives是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供类SQL查询功能. 1.2 为什么使用Hive ① 直接使用 ...

  6. docker安装hive笔记

    前两篇文章介绍了docker的基本命令如何安装hadoop 那么大家会比较了解docker的基本语法的安装过程.那么咱们今天来一起安装一下hive. 安装 1.下载gitHub,地址:https:// ...

  7. Hive/hbase/sqoop的基本使用教程~

    Hive/hbase/sqoop的基本使用教程~ ###Hbase基本命令start-hbase.sh     #启动hbasehbase shell      #进入hbase编辑命令 list  ...

  8. Hive Shell 命令详解

    Hive服务介绍 Hive默认提供的cli(shell)服务,如果需要启动其他服务,那么需要service参数来启动其他服务,比如thrift服务.metastore服务等.可以通过命令hive -- ...

  9. Hive 1.2.1&Spark&Sqoop安装指南

    目录 目录 1 1. 前言 1 2. 约定 2 3. 服务端口 2 4. 安装MySQL 2 4.1. 安装MySQL 2 4.2. 创建Hive元数据库 4 5. 安装步骤 5 5.1. 下载Hiv ...

随机推荐

  1. ORACLE时间日期格式使用总结(参考网上资料汇总)

    Oracle时间日期操作 sysdate+(5/24/60/60) 在系统时间基础上延迟5秒 sysdate+5/24/60 在系统时间基础上延迟5分钟 sysdate+5/24 在系统时间基础上延迟 ...

  2. SQLite 附加数据库(http://www.w3cschool.cc/sqlite/sqlite-attach-database.html)

    SQLite 附加数据库 假设这样一种情况,当在同一时间有多个数据库可用,您想使用其中的任何一个.SQLite 的 ATTACH DTABASE 语句是用来选择一个特定的数据库,使用该命令后,所有的 ...

  3. 第一个lucene程序,把一个信息写入到索引库中、根据关键词把对象从索引库中提取出来、lucene读写过程分析

    新建一个Java Project :LuceneTest 准备lucene的jar包,要加入的jar包至少有: 1)lucene-core-3.1.0.jar     (核心包) 2) lucene- ...

  4. JAVA面向对象-----构造方法

    我们人出生的时候,有些人一出生之后再起名字的,但是有些人一旦出生就已经起好名字的.那么我们在java里面怎么在对象一旦创建就赋值呢? 构造方法作用 构造方法作用:对对象进行初始化. 构造函数与普通的函 ...

  5. DBoW2应用

    图像对应的bag-of-words向量\(v_t\) 假设词典总共有\(W\)个单词,那么每一幅图像能够用一个\(W\)维的向量表示 \((t_1, t_2, t_3, ..., t_W)\)其中 \ ...

  6. 1079. Total Sales of Supply Chain (25) -记录层的BFS改进

    题目如下: A supply chain is a network of retailers(零售商), distributors(经销商), and suppliers(供应商)-- everyon ...

  7. 【Android应用开发】EasyDialog 源码解析

    示例源码下载 : http://download.csdn.net/detail/han1202012/9115227 EasyDialog 简介 : -- 作用 : 用于在界面进行一些介绍, 说明; ...

  8. 谈谈spring的缓存

    缓存到底扮演了什么角色 请移步:  http://hacpai.com/article/1376986299174 在对项目进行优化的时候,我们可以主要从以下三个方面入手: 1 缓存 2 集群 3 异 ...

  9. 修改GDAL库支持IRSP6数据

    使用GDAL库发现不能打开IRSP6的数据,不过看GDAL提供的文件格式里面却是支持IRSP6的数据的,具体可以参考网页http://www.gdal.org/frmt_fast.html.下面图1是 ...

  10. 后端分布式系列:分布式存储-HDFS 架构解析

    本文以 Hadoop 提供的分布式文件系统(HDFS)为例来进一步展开解析分布式存储服务架构设计的要点. 架构目标 任何一种软件框架或服务都是为了解决特定问题而产生的.还记得我们在 <分布式存储 ...