Hive的导入导出和常用过滤语句的学习
原文:
https://www.toutiao.com/i6769166601871688196/?group_id=6769166601871688196
数据的导入
- load data [local]
创建数据表
加载数据
load data local inpath '/data/hivetest/stu_info_two' into table stu_info;
加载HDFS数据,移动数据文件到表对应的目录
我们先清空数据truncate table stu_info;
将数据加载到HDFS上
hdfs dfs -put /data/hivetest/stu_info_local_format /hivetestdata/
Hive中查看下
然后加载数据
- load data + overwrite 覆盖数据
为了区分我们新创建数据库
可以覆盖数据
3、子查询 as select
create table tb_stu_as_test_stu as select * from stu_info;
适合数据查询结果的保存
4、insert 方式
插入数据的表必须要存在
我们创建新表
我们如果再执行一遍,数据就会增多(追加)
执行覆盖(原先数据变了)
在关系型数据库插入一条数据
insert into table table_name(id,name) values(1,'test');
Hive也支持插入
insert into table hive_table_name(id,name) values(1,'test');
注意:这种方式适合数据非常小的情况下去使用,如果大数据量,避免这种操作,如果执行show tables会发现一个临时表values__tmp__table__1,说明SQL这种方式用在Hive中会用临时表过渡。
5、建表的时候用location指定数据文件的方式
数据的导出
官网
- INSERT OVERWRITE [LOCAL] DIRECTORY directory1 方式(local的方式和插入一样一个是本地一个是HDFS)
Insert overwrite local directory '/data/hivetest/export_local_stu_info' select * from stu_info;
我们查看数据
添加语句可以指定分隔符 ROW FORMAT DELIMITED FIELDS TERMINATED BY ' '
语句:
Insert overwrite local directory '/data/hivetest/export_local_stu_info' ROW FORMAT DELIMITED FIELDS TERMINATED BY ' ' select * from stu_info;
数据有空格了
如果不使用local的话就是将输入导入到HDFS中,就可以用hdfs命令下载文件了
- bin/hive -e 或者 -f + >> 或者 >
hive -e 'select * from db_import_export.stu_info' >> /data/hivetest/export_local_stu_info_1.txt;
- 可以使用sqoop等工具
我们使用之前的数据库
select * from emp where sal > 3000;
select * from emp limit 5;
select distinct deptno from emp;
select * from emp where sal between 1300 and 3000;
select * from emp where sal >=1000 and sal <= 3000;
select empno,ename from emp where comm is null;
select empno,ename from emp where comm is not null;
聚合函数
count()、max()、min()、sum()、avg()、group by
如果我们加一个字段
select deptno,max(sal) from emp ;
有错误
select中出现的字段,需要用聚合函数包裹或者放入group by当中
select deptno ,max(sal) from emp group by deptno;
select max(deptno) ,max(sal) from emp ;
join
left join 、right join、inner join(等值)、full join(全)
新创建一个库
创建两张表
我们准备两个数据
等值join
select a_test.id,a_test.name,b_test.id,b_test.adress from a a_test join b b_test on a_test.id=b_test.id;
左join,以左表为基准,没有匹配到的字段为NULL
select a_test.id,a_test.name,b_test.id,b_test.adress from a a_test left join b b_test on a_test.id=b_test.id;
右join,以右表为基准,没有匹配到的字段为NULL
select a_test.id,a_test.name,b_test.id,b_test.adress from a a_test right join b b_test on a_test.id=b_test.id;
全join,所有的字段都会出现,没有匹配到的字段为NULL
select a_test.id,a_test.name,b_test.id,b_test.adress from a a_test full join b b_test on a_test.id=b_test.id;
不写连接条件,两张表做笛卡尔积
select a_test.id,a_test.name,b_test.id,b_test.adress from a a_test join b b_test ;
Hive的导入导出和常用过滤语句的学习的更多相关文章
- hive数据导入导出和常用操作
导出到本地文件 insert overwrite local directory '/home/hadoop'select * from test1; 导出到hdfs insert overwrite ...
- 利用sqoop将hive数据导入导出数据到mysql
一.导入导出数据库常用命令语句 1)列出mysql数据库中的所有数据库命令 # sqoop list-databases --connect jdbc:mysql://localhost:3306 ...
- Hive数据导入导出的几种方式
一,Hive数据导入的几种方式 首先列出讲述下面几种导入方式的数据和hive表. 导入: 本地文件导入到Hive表: Hive表导入到Hive表; HDFS文件导入到Hive表; 创建表的过程中从其他 ...
- 从零自学Hadoop(16):Hive数据导入导出,集群数据迁移上
阅读目录 序 导入文件到Hive 将其他表的查询结果导入表 动态分区插入 将SQL语句的值插入到表中 模拟数据文件下载 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并 ...
- Hive数据导入导出
Hive三种不同的数据导出的方式 (1) 导出到本地文件系统 insert overwrite local directory '/home/anjianbing/soft/export_data/ ...
- 从零自学Hadoop(17):Hive数据导入导出,集群数据迁移下
阅读目录 序 将查询的结果写入文件系统 集群数据迁移一 集群数据迁移二 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephis ...
- Sqoop_mysql,hive,hdfs导入导出操作
前言: 搭建环境,这里使用cdh版hadoop+hive+sqoop+mysql 下载 hadoop-2.5.0-cdh5.3.6.tar.gz hive-0.13.1-cdh5.3.6.tar.gz ...
- Hive 实战(1)--hive数据导入/导出基础
前沿: Hive也采用类SQL的语法, 但其作为数据仓库, 与面向OLTP的传统关系型数据库(Mysql/Oracle)有着天然的差别. 它用于离线的数据计算分析, 而不追求高并发/低延时的应用场景. ...
- 数据仓库Hive数据导入导出
Hive库数据导入导出 1.新建表data hive (ebank)> create table data(id int,name string) > ROW FORMAT DELIMIT ...
随机推荐
- Java动态脚本Groovy,高级啊!
前言:请各大网友尊重本人原创知识分享,谨记本人博客:南国以南i 简介: Groovy是用于Java虚拟机的一种敏捷的动态语言,它是一种成熟的面向对象编程语言,既可以用于面向对象编程,又可以用作纯粹的脚 ...
- <转>Java NIO API
Java NIO API详解 NIO API 主要集中在 java.nio 和它的 subpackages 中: java.nio 定义了 Buffer 及其数据类型相关的子类.其中被 java.ni ...
- QT QApplication干了啥?
------------恢复内容开始------------ QCoreApplicationPrivate 会取得current thread; 在windows平台创建TLS变量,记录线程信息,并 ...
- N1BOOK——[第五章 CTF之RE章]wp
推荐在了解了相应章节的内容后再来练习,你会觉得顿时悟了 记录一下自己的解题过程 2,3,4题目附件来源:https://book.nu1l.com/tasks/#/pages/reverse/5.4 ...
- 使用批处理文件(.bat)启动多个CMD窗口并执行命令
由于每次启动本机的kafka都需要打开2个cmd窗口,分别启动zookeeper服务和kafka服务,操作相对繁琐,于是想起了批处理来帮忙一键启动. 在桌面新建一个txt文件,改后缀名为.bat,并加 ...
- 【C语言】Socket发送HTTP-TCP请求,数据有字符串插入
问题描述: 场景:编写Socket接口,向LOKI发送POST请求查询数据 BUG发现位置:通过cJSON读取时间戳,发现被截断. 现象:通过read()去读取返回的数据,数据行中被插入字符:如下 c ...
- 痞子衡嵌入式:揭秘i.MXRT1170上用J-Link连接复位后PC总是停在0x223104的原因
大家好,我是痞子衡,是正经搞技术的痞子.今天痞子衡给大家介绍的是i.MXRT1170上安全调试策略实现对JLink调试的影响. 痞子衡之前写过一篇旧文 <i.MXRT600的ISP模式下用J-L ...
- JS中使用reconnecting-websocket实现websocket断开自动重新连接
这里用了第三方的js 官方地址:https://github.com/joewalnes/reconnecting-websocket 引入js reconnecting-websocket.min. ...
- 【LeetCode】486. Predict the Winner 解题报告(Python)
[LeetCode]486. Predict the Winner 解题报告(Python) 标签(空格分隔): LeetCode 作者: 负雪明烛 id: fuxuemingzhu 个人博客: ht ...
- codevs 1300:文件排版(DP)
题目描述 写电子邮件是有趣的,但不幸的是经常写不好看,主要是因为所有的行不一样长,你的上司想要发排版精美的电子邮件,你的任务是为他编写一个电子邮件排版程序. 完成这个任务最简单的办法是在太短的行中的单 ...