Hive数据库【操作】+ 【分区】+【分桶】+【查询】+【运算】+【函数】
键值对信息
添加数据库的描述信息(添加键值对信息)
create database [数据库] with dbproperties('name'='RenZetong','data'='20200101')
--数据所有者:RenZetong 日期:2020-01-01
查看键值对信息
describe database extended [数据库]
修改键值对信息
alter database [数据库] set dbproperties('name'='RenZetong2')
查看更多详细信息
desc database extended [数据库]
数据库的删除操作
drop database [数据库] #删除一个空的数据库
drop database [数据库] cascade #连同数据库下的表一起删除掉 "强制性删除"
数据库表操作
CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name
[(col_name data_type [COMMENT col_comment], ...)]
[COMMENT table_comment]
[PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)]
[CLUSTERED BY (col_name, col_name, ...)
[SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS]
[ROW FORMAT row_format]
[STORED AS file_format]
[LOCATION hdfs_path]
- comment 表示注释,默认不能使用中文
- partitioned by 表示使用表分区,一个表可以拥有多个分区,每一个分区单独存在一个目录下
- clustered by 对于每一个表分区文件,Hive可以进一步组织成桶,也就是说桶是更为细粒度的数据范围划分。Hive也是针对某一列进行桶的组织
- sorted by 指定排序字段和排序规则
- row format 指定表文件字段分隔符
- stored as 指定表文件的存储格式,常用格式:sequencefile,textfile,rcfile,如果是纯文本文件,可以使用STORED AS TEXTFILE
- location 指定表文件的存储路径
内部表操作
创建表并指定字段之间的分隔符
create table stu2(id int,name string)
row format
delimited fields
terminated by '/t'; --指定的分隔符
创建表并指定文件的存放路径
create table stu3(id int,name string)
row format
delimited fields
terminated by '\t'
location '/user/stu3'; --指定文件存储路径
根据查询结果来创建表
create table stu3 as select * from stu2;
根据已存在的表结构来创建表
create table stu4 like stu2;
查看表结构
desc stu4;
查看表结构详细信息
desc formatted stu2;
删除表
drop table stu4;
外部表操作
外部表的数据一般是用来共享的,所以删除hive表的时候,数据仍然会存放在hdfs中
分别创建老师和学生的外部表,并向表中添加数据
1、创建老师表
create external table teacher (t_id string,t_name string)
row format
delimited fields terminated by '\t'
2、创建学生表
create external table student(s_id string,s_name string,s_birth string,s_sex string) row format delimited fields terminated by '\t'
将数据加载入表的方式
1、普通加载方式
load data local inpath '/***/***/data.csv' into table ***
2、加载并覆盖方式
load data local inpath '/***/***/data.csv' overwrite into table ***
3、从hdfs文件系统中向表中加载数据(前提是得将数据上传到hdfs系统中)
hdfs dfs -put ***.csv /hivesource
load data inpath '/hivesource/***.csv' into table ***
分区表的操作
在hive中分区就是分文件夹,把大文件切割划分成一个个的小文件,这样每次操作一个小的文件就会很容易了,例如把一个大数据按照每月或者每天进行分割成一个个的小文件,存放在不同的文件夹中.(多分区就是目录的嵌套)
创建一个表带一个分区的语法
create table score(s_id string,c_id string,s_score int)
partitioned by (month string) --指定分区字段
row format
delimited fields
terminated by '\t';
创建一个表带多个分区语法
create table score2(s_id string,c_id string,s_score int)
partitioned by(year string,month string,day string) --指定分区字段
row format
delimited fields
terminated by '\t';
给一个表带一个分区的加载数据
load data local inpath '/root/score.csv' into table score partition(month='20180101');
多分区表加载数据
load data local inpath '/root/score.csv' into table score2
partition(year='2018',month='06',day='01');
分区表查询
select * from score where month = '20180102';
多分区表联合查询(使用union all)
select * from score where month='20180102' union all select * from score where month='20180101';
查看分区
show partitions score;
添加分区
alter table score add partition(month='201805');
删除分区
alter table drop partition(month='201806');
表的修复(建立表与数据文件之间的一个关系映射)
msck repair table ***
分桶表操作
分桶就是MapReduce中的分区。
开启hive的分桶功能
set hive.enforce.bucketing=true;
设置Reduce个数
set mapreduce.job.reduces=3;
创建分桶表
create table course(c_id string,c_name string,t_id string)
clustered by(c_id) into 3 buckets
row format
delimited fields
terminated by '\t';
数据查询
求总行数
select count(*) from table;
求分数的最大值
select max(s_score) from table;
求分数的最小值
select min(s_score) from table;
求分数的总和
select sum(s_score) from table;
求分数的平均值
select avg(s_score) from table;
关系运算
等值比较
select 1 from data_tb where 1=1;
不等值比较
select 1 from data_tb where 1<>2;
小于比较
select 1 from data_tb where 1 < 2;
小于等于比较
select 1 from data_tb where 1 <= 1
大于比较
select 1 from data_tb where 2>1
大于等于比较
select 1 from data_tb where 1 >=1
空值判断
select 1 from data_tb where null is null
非空值判断
select 1 from data_tb where 1 is not null
like比较
select 1 from data_tb where 'footabll' like 'foot%';
select 1 from data_tb where 'footabll' like '%foot%';
like否定比较
select 1 from data_tb where not 'football' like 'foot%';
select 1 from data_tb where not 'football' like '%foot%';
数学运算
加法操作
select 1+9 from data_tb;
减法操作
select 10-5 from data_tb;
乘法操作
select 40*5 from data_tb;
除法操作
select 40/5 from data_tb;
逻辑运算
逻辑与操作:AND
select 1 from data_tb where 1=1 and 2=2;
逻辑或操作:OR
select 1 from data_tb where 1=2 or 2=2;
逻辑非操作:NO
select 1 from data_tb where not 1=2
数值计算
取整函数:round
select round(3.1415925) from data_tb;
> 3
select round(3.5) from data_tb;
> 4
指定精度取整函数:round
select round(3.1415926,4) from data_tb;
> 3.1416
随机数函数:rand
select rand() from data_tb;
> 0.26472837228287
select rand(100) from data_tb;
> 0.72636263627272
绝对值函数:abs
select abs(-3.9) from data_tb;
> 3.9
日期函数
from_unixtime函数将yyyy/mm/dd类型的日期转换为yyyy-mm-dd日期类型
select from_unixtime(unix_timestamp(date,'yyyy/mm/dd'),'yyyy-mm-dd') from date_1;
时间转日期函数:to_date
select to_date('2020-11-12 10:02:11') from data_tb;
> 2020-11-12
日期转年函数:year
select year('2020-11-12 10:22:22') from data_dt;
> 2011
日期转月函数:month
select month('2020-11-12') from data_dt;
> 12
日期转天函数:day
select day('2020-11-12') from data_dt;
> 12
日期转小时函数:hour
select hour('2020-01-02 20:22:12') from data_dt;
> 20
Hive数据库【操作】+ 【分区】+【分桶】+【查询】+【运算】+【函数】的更多相关文章
- 【Hive学习之五】Hive 参数&动态分区&分桶
环境 虚拟机:VMware 10 Linux版本:CentOS-6.5-x86_64 客户端:Xshell4 FTP:Xftp4 jdk8 hadoop-3.1.1 apache-hive-3.1.1 ...
- Hive数据库操作
Hive数据结构 除了基本数据类型(与java类似),hive支持三种集合类型 Hive集合类型数据 array.map.structs hive (default)> create table ...
- laravel 数据库操作之 DB facade & 查询构造器 & Eloquent ORM
<?php namespace App\Http\Controllers; use App\Student; use Illuminate\Support\Facades\DB; class S ...
- Spark SQL解析查询parquet格式Hive表获取分区字段和查询条件
首先说一下,这里解决的问题应用场景: sparksql处理Hive表数据时,判断加载的是否是分区表,以及分区表的字段有哪些?再进一步限制查询分区表必须指定分区? 这里涉及到两种情况:select SQ ...
- yii学习笔记(7),数据库操作,联表查询
在实际开发中,联表查询是很常见的,yii提供联表查询的方式 关系型数据表:一对一关系,一对多关系 实例: 文章表和文章分类表 一个文章对应一个分类 一个分类可以对应多个文章 文章表:article 文 ...
- oracle数据库中,分天查询数目
select to_CHAR(SP_MT_TIME,'DD'),count(*) from table2 group by to_CHAR(SP_MT_TIME,'DD');
- HIVE—索引、分区和分桶的区别
一.索引 简介 Hive支持索引,但是Hive的索引与关系型数据库中的索引并不相同,比如,Hive不支持主键或者外键. Hive索引可以建立在表中的某些列上,以提升一些操作的效率,例如减少MapRed ...
- hive -- 分区,分桶(创建,修改,删除)
hive -- 分区,分桶(创建,修改,删除) 分区: 静态创建分区: 1. 数据: john doe 10000.0 mary smith 8000.0 todd jones 7000.0 boss ...
- Hive 的分桶 & Parquet 概念
分区 & 分桶 都是把数据划分成块.分区是粗粒度的划分,桶是细粒度的划分,这样做为了可以让查询发生在小范围的数据上以提高效率. 分区之后,分区列都成了文件目录,从而查询时定位到文件目录,子数据 ...
- 二 Hive分桶
二.Hive分桶 1.创建分桶表 create table t_buck (id string ,name string) clustered by (id) //根据id分桶 sorted by ( ...
随机推荐
- 《Vue.js 设计与实现》读书笔记 - 第9章、简单 Diff 算法
第9章.简单 Diff 算法 9.1 减少 DOM 操作的性能开销 在之前的章节,如果新旧子节点的类型都是数组,我们会先卸载所有旧节点,再挂载所有新的子节点.但是如果存在相同类型的节点,我们完全可以复 ...
- 1001 Attention 和 Self-Attention 的区别(还不能区分我就真的无能为力了)
通过 pytorch 去构建一个 transformer 的框架 不是导包,不是调包侠 注意力机制是一个很宽泛(宏大)的一个概念,QKV 相乘就是注意力,但是他没有规定 QKV是怎么来的 通过一个查询 ...
- FFmpeg开发笔记(五十五)寒冬里的安卓程序员可进阶修炼的几种姿势
喊了多年的互联网寒冬,今年的寒风格外凛冽,还在坚守安卓开发的朋友着实不容易.因为能转行的早就转了,能转岗的也早就转了,那么安卓程序员比较迷茫的就是,我该学什么安卓技术才好呢?还是直接扔了安卓再去搞别 ...
- docker打包镜像,上传镜像仓库,使用rancher发布
步骤一.首先将项目打包放在指定目录下 项目jar包名称为 micro-app.jar 步骤二.将jar包名称改为指定名称,执行命令 docker build -t micro-gateway: ...
- C# .netcore NPOI库 实现报表的列自适应删减
实际需求:业务上的一个需求,数据库表A中的B字段存放的是该条数据的一些标签,标签存在两级[即一级标签和二级标签], 现在要是实现将这些标签统计到报表中,一级标签作为表头,二级标签作为填充值. 由于之前 ...
- KubeSphere 社区双周报|2024.09.13-09.26
KubeSphere 社区双周报主要整理展示新增的贡献者名单和证书.新增的讲师证书以及两周内提交过 commit 的贡献者,并对近期重要的 PR 进行解析,同时还包含了线上/线下活动和布道推广等一系列 ...
- 【磐维数据库】Oracle(透明网关)访问磐维数据库(PanWeiDB)
磐维数据库(PanWeiDB)是由中国移动基于中国本土开源数据库openGauss打造的自研数据库产品,主要面向ICT基础设施.它具有高性能.高可靠性.高安全性和高兼容性的特点,能够支持集中式.分布式 ...
- Power BI 网关无法添加My SQL数据集
今天第一次发布数据类型为MySQL的数据集到Power BI报表服务器,desktop的连接正常,但是发布到web端后,添加网关时却提示以下错误,如下图所示: 错误信息: 无法创建连接,原因如下: 无 ...
- UniswapV2Factory细节
UniswapV2Factory合约是Uniswap V2协议中的关键部分,负责管理和创建所有的流动性池(交易对).以下是对UniswapV2Factory合约中所有主要方法及其参数的详细讲解. 方法 ...
- Diffuision Policy + RL -------个人博客_ZSY_20241101
Diffusion Policy: Visuomotor Policy Learning via Action Diffusion Cheng Chi, Zhenjia Xu, Siyuan Feng ...