本地一份包含有中文的文本文件在上传到hive前,需要先转化为UTF-8格式,否则会出现乱码。(notepad++ 格式>>>转化UTF-8编码格式)
 
--------------------------------------------------------------------------------------------------不带分区----------------------------------------------------------------------------------------------------------
不带分区的表创建:(换行符\n做行分割,制表符\t做列分割) 
drop table if exists SCAN.ZTO_SCAN_COME_TEST_WL; 
 create table SCAN.ZTO_SCAN_COME_TEST_WL
(
  USERNAME      string,
  USERID  string
)
ROW FORMAT DELIMITED  FIELDS TERMINATED BY '\t'  LINES TERMINATED BY '\n'  STORED AS TEXTFILE;
 
删除表数据: insert overwrite table ZTO_SCAN_COME_TEST_WL  select * from ZTO_SCAN_COME_TEST_WL where 1=0;
 
全量导入数据方式一:覆盖
insert overwrite table ZTO_SCAN_COME_TEST_WL
select '李磊'  as username,'1006' as userid from ZTO_SCAN_COME_MANSUM  limit 1
 
全量导入数据方式二:覆盖
 
load data inpath '/user/hive/HQL_SOURCE/date_test_one.txt'
overwrite into  table ZTO_SCAN_COME_TEST_WL
 
增量导入数据方式一:添加
insert into table ZTO_SCAN_COME_TEST_WL
select '李磊1'  as username,'1007' as userid from ZTO_SCAN_COME_TEST_WL  limit 1
 
增量导入数据方式二:添加
 
load data inpath '/user/hive/HQL_SOURCE/date_test_one.txt'
into  table ZTO_SCAN_COME_TEST_WL
 
 
--------------------------------------------------------------------------------------------------带分区----------------------------------------------------------------------------------------------------------------
带分区的表创建:(换行符\n做行分割,制表符\t做列分割) 
drop table if exists SCAN.ZTO_SCAN_COME_TEST_WL; 
create table SCAN.ZTO_SCAN_COME_TEST_WL
(
  USERNAME      string,
  USERID  string
)
partitioned by(ds1 string,ds2 string)
ROW FORMAT DELIMITED  FIELDS TERMINATED BY '\t'  LINES TERMINATED BY '\n'  STORED AS TEXTFILE; 
 
删除某个分区数据:
ALTER TABLE ZTO_SCAN_COME_TEST_WL DROP IF EXISTS PARTITION (ds2='南京');
ALTER TABLE ZTO_SCAN_COME_TEST_WL DROP IF EXISTS PARTITION (ds1='20160902');
alter table ZTO_SCAN_COME_TEST_WL drop if  exists partition(ds1='20160902',ds2='北京');
 
注意:
1、带有分区的表数据插入时,必须指定到每个分区,一个不能少
2、带有分区的表数据删除时,至少指定一个分区即可
 
全量导入数据方式一:覆盖
insert overwrite table ZTO_SCAN_COME_TEST_WL  partition (ds1='20160901',ds2='上海') 
select '李磊'  as username,'1006' as userid from ZTO_SCAN_COME_MANSUM  limit 1;
 
insert overwrite table ZTO_SCAN_COME_TEST_WL  partition (ds1='20160901',ds2='南京') 
select '李磊'  as username,'1007' as userid from ZTO_SCAN_COME_MANSUM  limit 1;
 
全量导入数据方式二:覆盖
load data inpath '/user/hive/HQL_SOURCE/date_test_one.txt'
overwrite into  table ZTO_SCAN_COME_TEST_WL partition (ds1='20160902',ds2='南京') 
 
load data inpath '/user/hive/HQL_SOURCE/date_test_one.txt'
overwrite into  table ZTO_SCAN_COME_TEST_WL partition (ds1='20160902',ds2='泰州') 
 
增量导入方式一:添加
insert into table ZTO_SCAN_COME_TEST_WL  partition (ds1='20160901',ds2='上海') 
select '李磊'  as username,'1006' as userid from ZTO_SCAN_COME_MANSUM  limit 1;
 
增量导入方式二:添加
load data inpath '/user/hive/HQL_SOURCE/date_test_one.txt'
into  table ZTO_SCAN_COME_TEST_WL partition (ds1='20160902',ds2='南京') 

hive实践_01的更多相关文章

  1. 达观数据分析平台架构和Hive实践——TODO

    转自: http://www.infoq.com/cn/articles/hadoop-ten-years-part03 编者按:Hadoop于2006年1月28日诞生,至今已有10年,它改变了企业对 ...

  2. Hive实践(hive0.12)

    版本号:cdh5.0.0+hadoop2.3.0+hive0.12 一.原始数据: 1. 本地数据 [root@node33 data]# ll total 12936 -rw-r--r--. 1 r ...

  3. hive学习_01

    1.构建在Hadoop之上的数据仓库(数据计算使用MR,数据存储使用HDFS) 2.Hive定义了一种类SQL查询语言----HQL 3.通常用于进行离线数据处理(非实时) 4.一个ETL工具 5.可 ...

  4. DEVOPS技术实践_01:jenkins集成平台

    一.准备环境 准备三台机器 角色 IP地址 用户名 密码 jenkins-master   172.25.254.130    admin   meiyoumima gitlab 172.25.254 ...

  5. Hadoop生态系统—数据仓库Hive的安装

    一.数据仓库 数据仓库是一个面向主题的.集成的.随时间变化,但信息本身相对稳定的数据集合,相比于传统型数据库,它主要用于支持企业或组织的决策分析处理.主要有以下3个特点: 数据仓库是面向主题的: 数据 ...

  6. Impala 笔记

    简介 Cloudera公司推出,提供对HDFS.Hbase数据的高性能.低延迟的交互式SQL查询功能. 基于Hive使用内存计算,兼顾数据仓库.具有实时.批处理.多并发等优点 是CDH平台首选的PB级 ...

  7. 【转】Kylin实践之使用Hive视图

    http://blog.csdn.net/yu616568/article/details/50548967 为什么需要使用视图 Kylin在使用的过程中使用hive作为cube的输入,但是有些情况下 ...

  8. hive权限管理之实践

    一.实践心得 主要参考这个连接,里面说得也挺详细的.http://www.aboutyun.com/thread-12549-1-1.html 总结如下: 1.若赋予用户某个表的权限,查用户在该表所属 ...

  9. ETL实践--kettle转到hive

    ETL实践--kettle只做源数据的抽取,其他数据转换转到hive上. 1.用hive代替kettle的数据关联的原因 (1).公司之前的数据ELT大量使用了kettle.用kettle导原始数据速 ...

随机推荐

  1. apache启动但是无法访问网页

    apache启动但是访问不了的问题排除??? 端口没有被占用,则需要考虑防火墙问题. 首先我们需要确保远程的Linux系统已经安装好,我们使用xshell远程SSH登录到Linux系统里,同时我们也要 ...

  2. HDU-1711-Number Sequence(KMP)(Rabin-Karp)

    Rabin-Karp Accepted 1711 904MS 5272K 1310 B G++ #include "bits/stdc++.h" using namespace s ...

  3. TOMCAT7不兼容spring boot 2.0

    找不到这个类,找不到那个类... Spring Boot 2.0 (and Spring Framework 5 upon which it builds) requires a Servlet 3. ...

  4. geoserver整合swagger2支持自动生成API文档

    网上各种博客都有关于swagger2集成到springmvc.springboot框架的说明,但作者在整合到geoserver中确碰到了问题,调试一番最后才解决,遂总结一下. swagger2集成只需 ...

  5. TCP并发、GIL全局锁、多线程讨论

    TCP实现并发 #client客户端 import socket client = socket.socket() client.connect(('127.0.0.1',8080)) while T ...

  6. zookeeper基本知识和zk作用体现

    有一段时间没写博客,今天想着把自己近几个月做的笔记分享一波. 前两个月我一直在看zk的视频:https://coding.imooc.com/learn/list/201.html   从开始看这位老 ...

  7. Image图片

    # View more python tutorials on my Youtube and Youku channel!!! # Youtube video tutorial: https://ww ...

  8. git push 时不用每次都输入密码的方法

    在本地克隆下来的git仓库中找到 .git 目录 (.git 目录是隐藏文件夹 在组织->文件夹和搜索选项-> 查看选项卡 -> 隐藏文件和文件夹 -> 显示隐藏的文件.文件夹 ...

  9. Ubuntu在没用root权限下如何创建sudo用户

    起因 安装openCryptoki之后,如果想执行相关命令的话,那么该用户必须在pkcs11用户组中,于是执行 sudo uersmod -G pkcs11 $(whoami) 之后重启系统,执行 s ...

  10. array, matrix, list and dataframe

    总结一下"入门3R"(Reading, 'Riting, 'Rrithmetic)中的读和写,不同的数据结构下的读写还是有点区别的. vector 命名 12 month.days ...