本地一份包含有中文的文本文件在上传到hive前,需要先转化为UTF-8格式,否则会出现乱码。(notepad++ 格式>>>转化UTF-8编码格式)
--------------------------------------------------------------------------------------------------不带分区----------------------------------------------------------------------------------------------------------
不带分区的表创建:(换行符\n做行分割,制表符\t做列分割)
drop table if exists SCAN.ZTO_SCAN_COME_TEST_WL;
create table SCAN.ZTO_SCAN_COME_TEST_WL
(
USERNAME string,
USERID string
)
ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' LINES TERMINATED BY '\n' STORED AS TEXTFILE;
删除表数据: insert overwrite table ZTO_SCAN_COME_TEST_WL select * from ZTO_SCAN_COME_TEST_WL where 1=0;
全量导入数据方式一:覆盖
insert overwrite table ZTO_SCAN_COME_TEST_WL
select '李磊' as username,'1006' as userid from ZTO_SCAN_COME_MANSUM limit 1
全量导入数据方式二:覆盖
load data inpath '/user/hive/HQL_SOURCE/date_test_one.txt'
overwrite into table ZTO_SCAN_COME_TEST_WL
增量导入数据方式一:添加
insert into table ZTO_SCAN_COME_TEST_WL
select '李磊1' as username,'1007' as userid from ZTO_SCAN_COME_TEST_WL limit 1
增量导入数据方式二:添加
load data inpath '/user/hive/HQL_SOURCE/date_test_one.txt'
into table ZTO_SCAN_COME_TEST_WL
--------------------------------------------------------------------------------------------------带分区----------------------------------------------------------------------------------------------------------------
带分区的表创建:(换行符\n做行分割,制表符\t做列分割)
drop table if exists SCAN.ZTO_SCAN_COME_TEST_WL;
create table SCAN.ZTO_SCAN_COME_TEST_WL
(
USERNAME string,
USERID string
)
partitioned by(ds1 string,ds2 string)
ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' LINES TERMINATED BY '\n' STORED AS TEXTFILE;
删除某个分区数据:
ALTER TABLE ZTO_SCAN_COME_TEST_WL DROP IF EXISTS PARTITION (ds2='南京');
ALTER TABLE ZTO_SCAN_COME_TEST_WL DROP IF EXISTS PARTITION (ds1='20160902');
alter table ZTO_SCAN_COME_TEST_WL drop if exists partition(ds1='20160902',ds2='北京');
注意:
1、带有分区的表数据插入时,必须指定到每个分区,一个不能少
2、带有分区的表数据删除时,至少指定一个分区即可
全量导入数据方式一:覆盖
insert overwrite table ZTO_SCAN_COME_TEST_WL partition (ds1='20160901',ds2='上海')
select '李磊' as username,'1006' as userid from ZTO_SCAN_COME_MANSUM limit 1;
insert overwrite table ZTO_SCAN_COME_TEST_WL partition (ds1='20160901',ds2='南京')
select '李磊' as username,'1007' as userid from ZTO_SCAN_COME_MANSUM limit 1;
全量导入数据方式二:覆盖
load data inpath '/user/hive/HQL_SOURCE/date_test_one.txt'
overwrite into table ZTO_SCAN_COME_TEST_WL partition (ds1='20160902',ds2='南京')
load data inpath '/user/hive/HQL_SOURCE/date_test_one.txt'
overwrite into table ZTO_SCAN_COME_TEST_WL partition (ds1='20160902',ds2='泰州')
增量导入方式一:添加
insert into table ZTO_SCAN_COME_TEST_WL partition (ds1='20160901',ds2='上海')
select '李磊' as username,'1006' as userid from ZTO_SCAN_COME_MANSUM limit 1;
增量导入方式二:添加
load data inpath '/user/hive/HQL_SOURCE/date_test_one.txt'
into table ZTO_SCAN_COME_TEST_WL partition (ds1='20160902',ds2='南京')
- 达观数据分析平台架构和Hive实践——TODO
转自: http://www.infoq.com/cn/articles/hadoop-ten-years-part03 编者按:Hadoop于2006年1月28日诞生,至今已有10年,它改变了企业对 ...
- Hive实践(hive0.12)
版本号:cdh5.0.0+hadoop2.3.0+hive0.12 一.原始数据: 1. 本地数据 [root@node33 data]# ll total 12936 -rw-r--r--. 1 r ...
- hive学习_01
1.构建在Hadoop之上的数据仓库(数据计算使用MR,数据存储使用HDFS) 2.Hive定义了一种类SQL查询语言----HQL 3.通常用于进行离线数据处理(非实时) 4.一个ETL工具 5.可 ...
- DEVOPS技术实践_01:jenkins集成平台
一.准备环境 准备三台机器 角色 IP地址 用户名 密码 jenkins-master 172.25.254.130 admin meiyoumima gitlab 172.25.254 ...
- Hadoop生态系统—数据仓库Hive的安装
一.数据仓库 数据仓库是一个面向主题的.集成的.随时间变化,但信息本身相对稳定的数据集合,相比于传统型数据库,它主要用于支持企业或组织的决策分析处理.主要有以下3个特点: 数据仓库是面向主题的: 数据 ...
- Impala 笔记
简介 Cloudera公司推出,提供对HDFS.Hbase数据的高性能.低延迟的交互式SQL查询功能. 基于Hive使用内存计算,兼顾数据仓库.具有实时.批处理.多并发等优点 是CDH平台首选的PB级 ...
- 【转】Kylin实践之使用Hive视图
http://blog.csdn.net/yu616568/article/details/50548967 为什么需要使用视图 Kylin在使用的过程中使用hive作为cube的输入,但是有些情况下 ...
- hive权限管理之实践
一.实践心得 主要参考这个连接,里面说得也挺详细的.http://www.aboutyun.com/thread-12549-1-1.html 总结如下: 1.若赋予用户某个表的权限,查用户在该表所属 ...
- ETL实践--kettle转到hive
ETL实践--kettle只做源数据的抽取,其他数据转换转到hive上. 1.用hive代替kettle的数据关联的原因 (1).公司之前的数据ELT大量使用了kettle.用kettle导原始数据速 ...
随机推荐
- html和jsp页面中把文本框禁用,只能读不能写的方法
方法常用有三种: 第一种,使用 onfocus="this.blur()" <input name="deptno" type="text& ...
- mac命令日常总结
查看某个端口被占用 lsof -i tcp:8080 kill进程: 找到进程的PID,使用kill命令:kill -9 716(PID) date 显示系统日期 mkdir xx 创建xx目录 rm ...
- mysql-5.7.25解压版本安装和navicat 12.1版本破解-4.8破解工具
1.配置环境变量 百度网盘下载https://pan.baidu.com/s/1tbOJiOG9l87HbIzsLApX4A 提取码 t657 (mysql-5.7.25大小300M解压后1.6G ...
- Simpo
Time: 2017-01-16 - Download Github: https://github.com/KeliCheng/Simpo一款快速发布文字和图片到社交网站的macOS菜单栏App,目 ...
- Presto单机/集群模式安装笔记
Presto单机/集群模式安装笔记 一.安装环境 二.安装步骤 三.集群模式安装: 3.1 集群模式修改配置部分 3.1.1 coordinator 节点配置. Node172配置 3.1.2 nod ...
- rpmbuild 实践
安装 rpmbuild 1 # yum install -y rpm-build 查看 rpmbuild 相关的宏和参数 12345678 # rpmbuild --showrc | grep --c ...
- NIPS 2016:普及机器学习
2016:普及机器学习" title="NIPS 2016:普及机器学习"> 左起:微软研究员Robert Schapire,John Langford,Al ...
- 【原创】面试官问我G1回收器怎么知道你是什么时候的垃圾?
这是why技术的第36篇原创文章 上面的图片是我上周末在家拍的.以后的文章里面我的第一张配图都用自己随手拍下的照片吧.分享生活,分享技术,哈哈. 阳台上的花开了,成都的春天快来了,疫情也应该快要过去了 ...
- C++扬帆远航——7(年月日)
/* * Copyright (c) 2016,烟台大学计算机与控制工程学院 * All rights reserved. * 文件名:charizi.cpp * 作者:常轩 * 完成日期:2016年 ...
- 关于图数据库HugeGraph的百万,千万,亿量级测试
1.Hugegraph测试硬件 1.1.本机硬件 本机测试hugeGraph版本:0.10.4 后置存储数据库:rocksdb,1TB的普通硬盘 1.2.测试服务器硬件 测试服务器hugegraph版 ...