Hive三种不同的数据导出的方式

(1)  导出到本地文件系统

insert overwrite local directory '/home/anjianbing/soft/export_data/app_order_city_d'

row format delimited

fields terminated by '\t'

select * from app.app_order_city_d limit 10;

通过insert overwrite local directory将hive中的表app_order_city_d的内容到本地文件系统的/home/anjianbing/soft/export_data下的app_order_city_d目录下,这条HQL的执行需要启用Mapreduce完成,

运行完这条语句之后,将会在本地文件系统的/home/anjianbing/soft/export_data/app_order_city_d目录下生成文件,这个文件是Reduce产生的结果(这里生成的文件名是000000_0)

(2)  导出到hive的另一个表中

insert into table hive_student_test 
select id,name,sex,salary from student;

(3)
$ hive -e "select * from employees" >> export/out.txt

Hive
Load方式加载数据

load data local inpath '/home/joe/Desktop/employees.tsv' overwrite
into table employees;

Sqoop与关系型数据库导入导出命令

1.列出所有数据库

$SQOOP_HOME/bin/sqoop
list-databases --connect jdbc:mysql://192.168.209.1:3306/ --username root
--password 123456

2.mysql导出表到hive并创建表(默认default库,如需设置路径:--warehouse-dir
/user/hive/warehouse/t_etl_log)

$SQOOP_HOME/bin/sqoop
import --connect jdbc:mysql://192.168.209.1:3306/world --username root
--password 123456 --table city --hive-import -m 1

3.hdfs导出到mysql

$SQOOP_HOME/bin/sqoop export --connect
jdbc:mysql://192.168.209.1:3306/world --username root --password 123456 --table
city --fields-terminated-by '\001' --export-dir /user/hive/warehouse/city

MySQL
一、 把 employees.tsv 文件数据导入数据表:
$ mysql --local-infile –u hadoopuser –p
mysql> load data local infile '/home/joe/Desktop/employees.tsv' into table
employees fields
terminated by '\t' lines terminated by '\n';
二、 利用 MySQL 导出数据:
mysql> select * from employees into outfile '/tmp/mysql_out.csv' fields
terminated by ',' lines
terminated by '\n';

Hive数据导入导出的更多相关文章

  1. 利用sqoop将hive数据导入导出数据到mysql

    一.导入导出数据库常用命令语句 1)列出mysql数据库中的所有数据库命令  #  sqoop list-databases --connect jdbc:mysql://localhost:3306 ...

  2. 从零自学Hadoop(16):Hive数据导入导出,集群数据迁移上

    阅读目录 序 导入文件到Hive 将其他表的查询结果导入表 动态分区插入 将SQL语句的值插入到表中 模拟数据文件下载 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并 ...

  3. Hive 实战(1)--hive数据导入/导出基础

    前沿: Hive也采用类SQL的语法, 但其作为数据仓库, 与面向OLTP的传统关系型数据库(Mysql/Oracle)有着天然的差别. 它用于离线的数据计算分析, 而不追求高并发/低延时的应用场景. ...

  4. 数据仓库Hive数据导入导出

    Hive库数据导入导出 1.新建表data hive (ebank)> create table data(id int,name string) > ROW FORMAT DELIMIT ...

  5. 如何利用sqoop将hive数据导入导出数据到mysql

    运行环境  centos 5.6   hadoop  hive sqoop是让hadoop技术支持的clouder公司开发的一个在关系数据库和hdfs,hive之间数据导入导出的一个工具. 上海尚学堂 ...

  6. Hive数据导入导出的几种方式

    一,Hive数据导入的几种方式 首先列出讲述下面几种导入方式的数据和hive表. 导入: 本地文件导入到Hive表: Hive表导入到Hive表; HDFS文件导入到Hive表; 创建表的过程中从其他 ...

  7. sqoop用法之mysql与hive数据导入导出

    目录 一. Sqoop介绍 二. Mysql 数据导入到 Hive 三. Hive数据导入到Mysql 四. mysql数据增量导入hive 1. 基于递增列Append导入 1). 创建hive表 ...

  8. 从零自学Hadoop(17):Hive数据导入导出,集群数据迁移下

    阅读目录 序 将查询的结果写入文件系统 集群数据迁移一 集群数据迁移二 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephis ...

  9. Hive数据导入/导出

    1.1 导入/导出规则 EXPORT 命令导出数据表或分区,与元数据一起输出到指定位置.又可以从这个输出位置移动到不同的Hadoop 或Hive 实例中,并且使用IMPORT 命令导入. 当导出一个分 ...

随机推荐

  1. 安装配置Spark集群

    首先准备3台电脑或虚拟机,分别是Master,Worker1,Worker2,安装操作系统(本文中使用CentOS7). 1.配置集群,以下步骤在Master机器上执行 1.1.关闭防火墙:syste ...

  2. dex2jar反编译dex文件

    apk实际是一组文件的压缩包,修改为zip或rar后直接解压可以看到其内部内容,其中classes.dex就是java代码编译后的结果 dex2jar可以实现对该文件的反编译 dex2jar镜像地址: ...

  3. java8新特性--Stream的基本介绍和使用

    什么是Stream? Stream是一个来自数据源的元素队列并可以进行聚合操作. 数据源:流的来源. 可以是集合,数组,I/O channel, 产生器generator 等 聚合操作:类似SQL语句 ...

  4. 使用hashlib进行文件校验

    import hashlib import os path = r'D:\CentOS 64 位' def file_md5(path): """ 文件校验 :param ...

  5. postman进行接口测试

    1.添加header 2.入参为json格式 3.添加cookie 4.上传文件

  6. python使用MySQLdb实现连接数据库Mysql

    python实现连接数据库mysql的步骤: 一.引入MySQLdb 二.获取与数据库的连接 三.执行SQL语句和存储过程 四.关闭数据库连接 1.什么是MySQLdb? MySQLdb是用于pyth ...

  7. python tuple的函数

    1. len(tuple) 计算元组元素个数 >>> tuple1 = ('Google', 'Runoob', 'Taobao') >>> len(tuple1) ...

  8. 13.C# 定义类成员

    1.定义字段 class MyClass { public int MyInt; } 字段可以用readonly修饰,表示该字段只能在构造函数中赋值,还可以用static表示该字段是静态字段 clas ...

  9. js中变量名加“-” new Vue()不执行

    如var app-1 = new Vue(): 不执行的 var app1 = new Vue(): 才能执行

  10. ASP.NET Core 之 Identity

    Claims:声明(证件单元)Identity:身份Principal:当事人Authentication :认证Authorization:授权 http://www.cnblogs.com/sav ...