hive使用过的基本命令
命令:完成操作
hive:进去hive
show databases:显示 所有database
use wizad: 使用database wizad,或者如use aso
show tables:显示当前database下的所有表
show columns from table_name from database_name; 或show columns from database_name.table_name; :显示表中列名称
show grants for user_name@localhost;:显示一个用户的权限,显示结果类似于grant 命令
show index from table_name;:显示表的索引
show logs;:显示BDB存储引擎的日志
show warnings;:显示最后一个执行的语句所产生的错误、警告和通知
show errors;:只显示最后一个执行语句所产生的错误
desc table_name:显示表信息(字段、分区)
desc formatted wizad_mdm_raw_hdfs;:显示表详细信息 (字段、分区、路径、格式等)
效果如下:
limit使用:
select * from app_data limit 100;
count:
select count(*) from app_data;
count非常耗费时间,下面有个别人写的小例子。
SELECT type ,
count(*) ,
count(DISTINCT u) ,
count(CASE WHEN plat=1 THEN u ELSE NULL) ,
count(DISTINCT CASE WHEN plat=1 THEN u ELSE NULL) ,
count(CASE WHEN (type=2 OR type=6) THEN u ELSE NULL) ,
count(DISTINCT CASE WHEN (type=2 OR type=6) THEN u ELSE NULL)
FROM t WHERE dt in ("2012-1-12-02", "2012-1-12-03")
GROUP BY type
ORDER BY type ;
hive表按partition查询,效率高:
show partitions table_name;:显示表table_name分区
show partitions wizad_mdm_raw_hdfs; :
day=2014-12-20/adn=3
day=2014-12-21/adn=3
day=2014-12-21/adn=5
descformatted t2 partition (pt = '2014-10-17');:查看分区属性
建分区两种:
1,建表时建分区:
CREATE TABLE tab(
column1 STRING,
columnN STRING
) partitioned BY (day STRING);
2,在已存在表上加分区:
alter table wizad_mdm_raw_hdfs add partition (day='2014-12-20',adn='3') location '/user/wizad/data/wizad/raw/2014-12-20/3_1/';
alter table wizad_mdm_raw_hdfs add partition (day='2014-12-20',adn='5') location '/user/wizad/data/wizad/raw/2014-12-20/5_1/';
删除分区:
ALTER TABLE wizad_mdm_raw_hdfs DROP PARTITION (day='2014-12-23',adn='3');
ALTER TABLE wizad_mdm_raw_hdfs DROP PARTITION (day='2014-12-23',adn='5');
修改表
ALTER TABLE old_table_name RENAME TO new_table_name;:重命名
ALTER TABLE tab1 ADD COLUMNS (c1 INT, c2 STRING);:添加字段
创建外部表:
CREATE EXTERNAL TABLE wizad_mdm_dev_lmj_mapping_cookie (
cookie_id STRING,
guid STRING
) ROW FORMAT DELIMITED
FIELDS TERMINATED BY ','
LINES TERMINATED BY '\n'
stored as textfile
location '/user/wizad/tmp/mapping_cookie/';
格式是:
CREATE EXTERNAL TABLE tab (
column1STRING,
column2STRING,
column3STRING,
column4STRING,
columnNSTRING
) ROW FORMATDELIMITED
FIELDSTERMINATED BY '\t'
stored astextfile
location'hdfs://namenode/tmp/lmj/tab/';
hive语句执行环境相关参数设定:
SET mapred.job.queue.name=queue3;
SET hbase.client.scanner.caching=5000;
SET hbase.zookeeper.quorum=datanode06,datanode07,datanode08;
set zookeeper.znode.parent=/hbase;
set hbase.regionserver.lease.period=180000;
将查询结果保存到本地
INSERT OVERWRITE LOCAL DIRECTORY '/home/wizad/lmj/'
ROW FORMAT DELIMITED FIELDS TERMINATED BY ','
select cookie_id,rowkey,fixeddim_map
from wizad_mdm_main_from_hbase as a JOIN wizad_mdm_dev_lmj_edition_20141120 as w
ON (w.guid = a.rowkey);
这里有一个优化的小例子:http://www.myexception.cn/internet/477451.html
hive使用过的基本命令的更多相关文章
- Hive基本命令整理
创建表: hive> CREATE TABLE pokes (foo INT, bar STRING); Creates a table called pokes with t ...
- Hive基本命令解析
1. Hive的分区作用 命令:创建分区 create table t_sz_part(id int, name string) partitioned by (country string) row ...
- Hive shell 基本命令
首先连接 hive shell 直接输入 hive启动, 使用--开头的字符串来表示注释 hive>quit; --退出hive hive> exit; --exit会影响之前的使用,所以 ...
- Hive学习之七《 Sqoop import 从关系数据库抽取到HDFS》
一.什么是sqoop Sqoop是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql.postgresql...)间进行数据的传递,可以将一个关系型数据库(例如 :MySQL ...
- Hive基础概念、安装部署与基本使用
1. Hive简介 1.1 什么是Hive Hives是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供类SQL查询功能. 1.2 为什么使用Hive ① 直接使用 ...
- docker安装hive笔记
前两篇文章介绍了docker的基本命令如何安装hadoop 那么大家会比较了解docker的基本语法的安装过程.那么咱们今天来一起安装一下hive. 安装 1.下载gitHub,地址:https:// ...
- Hive/hbase/sqoop的基本使用教程~
Hive/hbase/sqoop的基本使用教程~ ###Hbase基本命令start-hbase.sh #启动hbasehbase shell #进入hbase编辑命令 list ...
- Hive Shell 命令详解
Hive服务介绍 Hive默认提供的cli(shell)服务,如果需要启动其他服务,那么需要service参数来启动其他服务,比如thrift服务.metastore服务等.可以通过命令hive -- ...
- Hive 1.2.1&Spark&Sqoop安装指南
目录 目录 1 1. 前言 1 2. 约定 2 3. 服务端口 2 4. 安装MySQL 2 4.1. 安装MySQL 2 4.2. 创建Hive元数据库 4 5. 安装步骤 5 5.1. 下载Hiv ...
随机推荐
- ORACLE时间日期格式使用总结(参考网上资料汇总)
Oracle时间日期操作 sysdate+(5/24/60/60) 在系统时间基础上延迟5秒 sysdate+5/24/60 在系统时间基础上延迟5分钟 sysdate+5/24 在系统时间基础上延迟 ...
- SQLite 附加数据库(http://www.w3cschool.cc/sqlite/sqlite-attach-database.html)
SQLite 附加数据库 假设这样一种情况,当在同一时间有多个数据库可用,您想使用其中的任何一个.SQLite 的 ATTACH DTABASE 语句是用来选择一个特定的数据库,使用该命令后,所有的 ...
- 第一个lucene程序,把一个信息写入到索引库中、根据关键词把对象从索引库中提取出来、lucene读写过程分析
新建一个Java Project :LuceneTest 准备lucene的jar包,要加入的jar包至少有: 1)lucene-core-3.1.0.jar (核心包) 2) lucene- ...
- JAVA面向对象-----构造方法
我们人出生的时候,有些人一出生之后再起名字的,但是有些人一旦出生就已经起好名字的.那么我们在java里面怎么在对象一旦创建就赋值呢? 构造方法作用 构造方法作用:对对象进行初始化. 构造函数与普通的函 ...
- DBoW2应用
图像对应的bag-of-words向量\(v_t\) 假设词典总共有\(W\)个单词,那么每一幅图像能够用一个\(W\)维的向量表示 \((t_1, t_2, t_3, ..., t_W)\)其中 \ ...
- 1079. Total Sales of Supply Chain (25) -记录层的BFS改进
题目如下: A supply chain is a network of retailers(零售商), distributors(经销商), and suppliers(供应商)-- everyon ...
- 【Android应用开发】EasyDialog 源码解析
示例源码下载 : http://download.csdn.net/detail/han1202012/9115227 EasyDialog 简介 : -- 作用 : 用于在界面进行一些介绍, 说明; ...
- 谈谈spring的缓存
缓存到底扮演了什么角色 请移步: http://hacpai.com/article/1376986299174 在对项目进行优化的时候,我们可以主要从以下三个方面入手: 1 缓存 2 集群 3 异 ...
- 修改GDAL库支持IRSP6数据
使用GDAL库发现不能打开IRSP6的数据,不过看GDAL提供的文件格式里面却是支持IRSP6的数据的,具体可以参考网页http://www.gdal.org/frmt_fast.html.下面图1是 ...
- 后端分布式系列:分布式存储-HDFS 架构解析
本文以 Hadoop 提供的分布式文件系统(HDFS)为例来进一步展开解析分布式存储服务架构设计的要点. 架构目标 任何一种软件框架或服务都是为了解决特定问题而产生的.还记得我们在 <分布式存储 ...