Sqoop是用来实现结构型数据(如:关系型数据库RDBMS)和Hadoop之间进行数据迁移的工具。它充分利用了MapReduce的并行特点以批处理的方式加快数据的传输,
同时也借助MapReduce实现容错。

一、将MySQL中的表迁移到HDFS上(RDBMS —> HDFS)

  1. 导入MySQL"db_sqoop.mysql_emp表"所有数据到HDFS中;
    sqoop import \
    --connect jdbc:mysql://hadoopone:3306/db_sqoop \
    --username root \
    --password root \
    --table mysql_emp \
    --target-dir /data/hdfs_sqoop \
    --delete-target-dir \
    --num-mappers 1 \
    --fields-terminated-by '\t'

    --table mysql中目标表;
    --target-dir hdfs存放目录;
    --delete-target-dir:若hdfs存放目录已存在,则自动删除;
    --num-mappers:指定maptask数量;
    --fields-terminated-by:各字段间的分隔符;

  2. 将MySQL的查询结果导入HDFS上;
    sqoop import \
    --connect jdbc:mysql://hadoopone:3306/db_sqoop \
    --username root \
    --password root \
    --target-dir /data/hdfs_sqoop \
    --delete-target-dir \
    --num-mappers 1 \
    --fields-terminated-by '\t' \
    --query 'SELECT emp_no,first_name,last_name FROM mysql_emp WHERE gender="M" and $CONDITIONS;'

    ”$CONDITIONS"表示将查询结果带回。

  3. 使用sqoop的关键字筛选查询后的结果导入到HDFS;
    sqoop import \
    --connect jdbc:mysql://hadoopone:3306/db_sqoop \
    --username root \
    --password root \
    --table mysql_emp \
    --target-dir /data/hdfs_sqoop \
    --delete-target-dir \
    --num-mappers 1 \
    --fields-terminated-by '\t' \
    --where "gender='F'"
  4. 从MySQL导入指定’列’到HDFS上;
  5. sqoop import \
    --connect jdbc:mysql://hadoopone:3306/db_sqoop \
    --username root \
    --password root \
    --table mysql_emp \
    --target-dir /data/hdfs_sqoop \
    --delete-target-dir \
    --num-mappers 1 \
    --fields-terminated-by '\t' \
    --columns emp_no,gender,birth_date

二、MySQL  ——>   Hive (RDBMS ——> HIVE)

  1. 将MySQL中的表导入Hive中;
    sqoop import \
    --connect jdbc:mysql://hadoopone:3306/db_sqoop \
    --username root \
    --password root \
    --num-mappers 1 \
    --table mysql_emp \
    --hive-import \
    --hive-table db_hive_sqoop.hive_emp \
    --fields-terminated-by '\t' \
    --hive-overwrite \
    --delete-target-dir

三、MySQL –> Hbase(RDBMS ——> Hbase)

  1. 将MySQL中的表导入Hbase中;
  2. sqoop import \
    --connect jdbc:mysql://hadoopone:3306/db_sqoop \
    --username root \
    --password root \
    --table book \
    --columns "id,name,price" \
    --column-family "info" \
    --hbase-create-table \
    --hbase-row-key "id" \
    --hbase-table "hbase_book" \
    --num-mappers 1 \
    --split-by id

四、HDFS/Hive —> MySQL (HDFS/Hive —> RDBMS)

  1. 在MySQL中创建对应的表,然后使用如下语句;
  2. sqoop export \
    --connect jdbc:mysql://hadoopone:3306/db_sqoop \
    --username root \
    --password root \
    --table myqsl_dept \
    --num-mappers 1 \
    --export-dir /usr/hive/warehouse/db_hive_sqoop.db/hive_dept \
    --input-fields-terminated-by '\t'

五、导出MySQL表结构到hive

  1. 导出MySQL表结构;
    sqoop create-hive-table \
    --connect jdbc:mysql://hadoopone:3306/db_sqoop \
    --username root \
    --password root \
    --table mysql_stu \
    --hive-database db_hive_sqoop \
    --hive-table hive_stu

Sqoop迁移Hadoop与RDBMS间的数据的更多相关文章

  1. Sqoop -- 用于Hadoop与关系数据库间数据导入导出工作的工具

    Sqoop是一款开源的工具,主要用于在Hadoop相关存储(HDFS.Hive.HBase)与传统关系数据库(MySql.Oracle等)间进行数据传递工作.Sqoop最早是作为Hadoop的一个第三 ...

  2. Sqoop是一款开源的工具,主要用于在HADOOP(Hive)与传统的数据库(mysql、oracle...)间进行数据的传递

    http://niuzhenxin.iteye.com/blog/1706203   Sqoop是一款开源的工具,主要用于在HADOOP(Hive)与传统的数据库(mysql.postgresql.. ...

  3. 阿里云 RDS实例间的数据迁移

    使用数据传输DTS可以实现两个RDS实例间的数据迁移.对于支持增量迁移的存储引擎,还可以使用DTS在源RDS实例不停服的情况下,将数据迁移到目标RDS实例.目前对于RDS不同存储引擎,只支持同构迁移( ...

  4. Hadoop基础之初识大数据与Hadoop

    前言 从今天起,我将一步一步的分享大数据相关的知识,其实很多程序员感觉大数据很难学,其实并不是你想象的这样,只要自己想学,还有什么难得呢? 学习Hadoop有一个8020原则,80%都是在不断的配置配 ...

  5. 关于Hadoop结合RDBMS应用的一些思考

    最近一段时间一直在从事和hadoop相关的工作,主要是技术内容学习.安装配置优化以及一些框架结构的设计.在此期间,我对于RDBMS和Hadoop的结合应用有了一些自己的看法,写出来大家共同探讨一下. ...

  6. hadoop集群间的hdfs文件拷贝

    1.背景 部门有个需求,在网络互通的情况下,把现有的hadoop集群(未做Kerberos认证,集群名为:bd-stg-hadoop)的一些hdfs文件拷贝到新的hadoop集群(做了Kerberos ...

  7. PHP+Hadoop+Hive+Thrift+Mysql实现数据统计分析

    原址:http://www.cnblogs.com/wicub/p/6094045.html   安装 Hadoop安装: http://www.powerxing.com/install-hadoo ...

  8. 小菜学习Winform(五)窗体间传递数据

    前言 做项目的时候,winfrom因为没有B/S的缓存机制,窗体间传递数据没有B/S页面传递数据那么方便,今天我们就说下winfrom中窗体传值的几种方式. 共有字段传递 共有字段传递实现起来很方便, ...

  9. View与Control间的数据交互

    View与Control间的数据交互 1.ViewBag.Name ="Name1" 2.ViewData["VD"] = "view data&qu ...

随机推荐

  1. 对Java意义重大的7个性能指标

      本文中,小编搜集了7个最有影响的衡量标注,让你可以不依赖日志文件来了解应用程序现在,让我们看看这些性能指标,并了解如何查看并收集它们.: 一,响应时间和吞吐量 根据应用程序的响应时间可以知道程序完 ...

  2. [译文]casperjs使用说明-使用命令行

    使用命令行 Casperjs使用内置的phantomjs命令行解析器,在cli模块里,它传递参数位置的命名选项 但是不要担心不能熟练操控CLI模块的API,一个casper实例已经包含了cli属性,允 ...

  3. git.exe 妙用

    1.如果 window 上的命令行,在进行编译的不好使 可以尝试在git 中运行 2.运行 python 脚本 ,保持脚本一直执行(尤其是中间出错) 可以做一个 sh 文件,然后在git 中运行 #! ...

  4. C++ 创建类时常考虑的问题

    目录 继承 抽象接口 标准设计模式 初始化与析构模型 定义复制构造函数和赋值操作 模板 操作符 类型转换操作符 友元 非功能性约束 本文仅以c++为例,简要说明创建一个类时我们需要考虑的问题.创建一个 ...

  5. SpringBoot入门(IDEA篇)(二)

    一.SpringBoot启动的3种方式 第一种:借助IDE工具直接启动 run as 第二种:mvn命令启动 1:打开命令行,进入到项目目录中(我这里还是用上次建立的dog项目来操作)cd E:\Wo ...

  6. jenkins配置以cygwin环境的子节点

    1.为Cygwin配置上sshd服务 ⑴.双击点击如下安装文件,并一直选取下一步 ⑵.到这个步骤停止,并且在search栏里输入openssh,并下载搜出的两个程序 ⑶.下载好以后以管理员权限打开cy ...

  7. Linux下如何将文件下载到指定目录

    一.问题描述 当我在搭服务器的时候,发现由于下载的东西太多,所以需要将一些安装包下载到指定的目录下. 二.解决办法 wget -P /usr/test http://download.redis.io ...

  8. P2472 [SCOI2007]蜥蜴

    传送门 求无法逃离的蜥蜴总数的最小值就是求最多逃离的蜥蜴总数 所以显然考虑最大流,一个流量的路径就相当于一只蜥蜴逃离的路径 发现每个位置有一个最大经过次数,所以把每个位置拆成两个点$x,y$,$x$ ...

  9. 使用vmtools来设置windows和linux的共享文件夹

    目的:通过vmtools来实现windows和linux的共享文件夹 步骤: 1.前提条件是vmtools已经安装 2.在windows任意磁盘新建一个共享文件夹 3.进入虚拟机->设置-> ...

  10. 安卓与windows

    windows phone 还是PC啊?windows PC的话,应该就是你现在用的电脑系统吧,PC系统和安卓是不一样的,安卓是移动设备系统,基于的构架也不同,意思就是电脑上装不上安卓,移动设备也装不 ...