sqoop简单import使用
一、sqoop作用?
sqoop是一个数据交换工具,最常用的两个工具是导入导出。
导入导出的参照物是hadoop,向hadoop导数据就是导入。
二、sqoop的版本?
sqoop目前有两个版本,1.4.X为sqoop1;1.99.X为sqoop2。两个版本不兼容。
三、使用sqoop列出mysql下的所有数据库
(my_python_env)[root@hadoop26 ~]# sqoop list-databases --connect jdbc:mysql://localhost:3306 --username root --password 123456
information_schema
hive
mysql
test
四、Import工具的使用
4.1将mysql中的某张表导入到hdfs上,现在test下有一张person表

4.2执行sqoop语句
sqoop import --connect jdbc:mysql://localhost:3306/test --username root --password 123456 -table person
4.3在hdfs用户的家目录下,产生了一个person文件夹
(my_python_env)[root@hadoop26 ~]# hadoop fs -ls
Found items
drwx------ - root supergroup -- : .Trash
drwxr-xr-x - root supergroup -- : person
(my_python_env)[root@hadoop26 ~]# hadoop fs -ls person
Found items
-rw-r--r-- root supergroup -- : person/_SUCCESS
-rw-r--r-- root supergroup -- : person/part-m-
-rw-r--r-- root supergroup -- : person/part-m-
(my_python_env)[root@hadoop26 ~]# hadoop fs -cat person/part-*
,zhangsan,false
,lisi,true
4.4delete-target-dir参数
当再次执行sqoop语句的时候,会报错,因为person文件夹已经存在了,我们需要先删除这个文件夹再运行sqoop语句。
也可以使用sqoop提供的delete-target-dir参数
sqoop import --connect jdbc:mysql://localhost:3306/test --username root --password 123456 -table person --delete-target-dir
4.5append参数
如果目标文件夹在hdfs上已经存在,那么再次运行就会报错。可以使用--delete-target-dir来先删除目录。也可以使用append来往目录下追加数据。append和delete-target-dir是相互冲突的。
sqoop import --connect jdbc:mysql://localhost:3306/test --username root --password 123456 --table person --append
执行完成后,查看hdfs上的文件
(my_python_env)[root@hadoop26 ~]# hadoop fs -ls person
Found items
-rw-r--r-- root supergroup -- : person/_SUCCESS
-rw-r--r-- root supergroup -- : person/part-m-
-rw-r--r-- root supergroup -- : person/part-m-
-rw-r--r-- root supergroup -- : person/part-m-
-rw-r--r-- root supergroup -- : person/part-m-
4.6target-dir参数
上述的所有操作都是吧mysql中的数据写到一个默认的目录下,可以使用target-dir来指定hdfs的目录名
sqoop import --connect jdbc:mysql://localhost:3306/test --username root --password 123456 --table person --append --target-dir person-mysql
查看hdfs上的目录
(my_python_env)[root@hadoop26 ~]# hadoop fs -ls
Found items
drwx------ - root supergroup -- : .Trash
drwxr-xr-x - root supergroup -- : _sqoop
drwxr-xr-x - root supergroup -- : person
drwxr-xr-x - root supergroup -- : person-mysql
4.7map的个数
现在mysql表person中的数据增加到了11条

再次执行sqoop语句来导入
sqoop import --connect jdbc:mysql://localhost:3306/test --username root --password 123456 --delete-target-dir --table person --target-dir person-mysql
查看hdfs上的目录
(my_python_env)[root@hadoop26 ~]# hadoop fs -ls person-mysql
Found items
-rw-r--r-- root supergroup -- : person-mysql/_SUCCESS
-rw-r--r-- root supergroup -- : person-mysql/part-m-
-rw-r--r-- root supergroup -- : person-mysql/part-m-
-rw-r--r-- root supergroup -- : person-mysql/part-m-
-rw-r--r-- root supergroup -- : person-mysql/part-m-
从上面的结果可以发现,这个作业启动了4个map任务,所以sqoop默认配置就是4个map,用户也可以通过-m参数,自己指定map的数量
sqoop import --connect jdbc:mysql://localhost:3306/test --username root --password 123456 --delete-target-dir --table person --target-dir person-mysql -m 1
查看hdfs上的目录发现,这次只启动了一个map任务
(my_python_env)[root@hadoop26 ~]# hadoop fs -ls person-mysql
Found items
-rw-r--r-- root supergroup -- : person-mysql/_SUCCESS
-rw-r--r-- root supergroup -- : person-mysql/part-m-
4.8where参数
where参数可以进行一些简单的筛选
sqoop import --connect jdbc:mysql://localhost:3306/test --username root --password 123456 --delete-target-dir --table person --target-dir person-mysql -m 1 --where "gender=0"
(my_python_env)[root@hadoop26 ~]# hadoop fs -cat person-mysql/part*
,zhangsan,false
,,false
,,false
,,false
,,false
,,false
,,false
,,false
4.9query参数
query参数就可以让用户随意写sql语句来查询了。query和table参数是互斥的。
sqoop import --connect jdbc:mysql://localhost:3306/test --username root --password 123456 --delete-target-dir --target-dir person-mysql -m 1 --query "select * from person where name='003' and gender=0 and \$CONDITIONS"
(my_python_env)[root@hadoop26 ~]# hadoop fs -cat person-mysql/part-*
,,false
4.10压缩
如果想要使得导入到hdfs上的数据被压缩,就可以使用-z或者--compression-codec来进行压缩,-z压缩方式是gzip压缩,--compression-codec可以自定义压缩方式
sqoop import --connect jdbc:mysql://localhost:3306/test --username root --password 123456 --delete-target-dir --target-dir person-mysql -m 1 --table person -z
查看hdfs上的结果:
(my_python_env)[root@hadoop26 ~]# hadoop fs -ls person-mysql
Found items
-rw-r--r-- root supergroup -- : person-mysql/_SUCCESS
-rw-r--r-- root supergroup -- : person-mysql/part-m-.gz
使用Snappy方式压缩
sqoop import --connect jdbc:mysql://localhost:3306/test --username root --password 123456 --delete-target-dir --target-dir person-mysql -m 1 --table person --compression-codec org.apache.hadoop.io.compress.SnappyCodec
4.11空值处理

像如图id=12的记录是没有name和gender的,如果不加处理,导入到hdfs上是这样子的:
(my_python_env)[root@hadoop26 ~]# hadoop fs -cat person-mysql/part*
,zhangsan,false
,lisi,true
,,false
,,false
,,true
,,false
,,false
,,false
,,false
,,true
,,false
,null,null
sqoop提供了--null-string来处理字符类型的空值,提供了--null-non-string来处理非字符类型的空值。
sqoop import --connect jdbc:mysql://localhost:3306/test --username root --password 123456 --delete-target-dir --target-dir person-mysql -m 1 --table person --null-string "" --null-non-string "false"
执行结果是:
(my_python_env)[root@hadoop26 ~]# hadoop fs -cat person-mysql/part*
,zhangsan,false
,lisi,true
,,false
,,false
,,true
,,false
,,false
,,false
,,false
,,true
,,false
,,false
4.12增量传输
增量导入的一个场景就是昨天导入了一批数据,今天又增加了部分数据,现在要把这部分数据也导入到hdfs中。
sqoop import --connect jdbc:mysql://localhost:3306/test --username root --password 123456 --target-dir person-mysql -m 1 --table person --null-string "" --null-non-string "false" --check-column "id" --incremental append --last-value 5
执行结果是:
(my_python_env)[root@hadoop26 ~]# hadoop fs -cat person-mysql/part-m-
,,false
,,false
,,false
,,false
,,true
,,false
,,false
sqoop简单import使用的更多相关文章
- how to use Sqoop to import/ export data
Sqoop is a tool designed for efficiently transferring data between RDBMS and HDFS, we can import dat ...
- hive sqoop,sqoop-hive import data
https://segmentfault.com/a/1190000002532293 https://www.zybuluo.com/aitanjupt/note/209968 create tab ...
- sqoop简单配置与使用
sqoop(sql-to-hadoop) Apache Sqoop是用来实现结构型数据(如关系数据库)和Hadoop之间进行数据迁移的工具.它充分利用了MapReduce的并行特点以批处理的方式加快数 ...
- sqoop简单介绍
一简介 Sqoop是一个用来将Hadoop和关系型数据库中的数据相互转移的工具,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS ...
- sqoop简单使用
一,通过sqoop将MySQL里面的数据加载到HDFS 先查看有哪些数据库 查看表person sqoop list-databases --connect jdbc:mysql://ly-p2p4: ...
- Sqoop学习笔记_Sqoop的基本使用二(sqoop的import与export)
Sqoop抽取从mysql抽取到hive sqoop抽取到mysql一样有两种方式一种是用command line的方式,一种是用sqoop opt文件调用的方式.(由于两种sqoop一已经记录了,现 ...
- Using Sqoop to import from db2 to hadoop
参考 : https://stackoverflow.com/questions/23933481/db2-data-import-into-hadoop sqoop import - ...
- Sqoop Import原理和详细流程讲解
Sqoop Import原理 Sqoop Import详细流程讲解 Sqoop在import时,需要指定split-by参数.Sqoop根据不同的split-by参数值来进行切分,然后将切分出来的区域 ...
- sqoop import mysql to hive table:GC overhead limit exceeded
1. Scenario description when I use sqoop to import mysql table into hive, I got the following error: ...
随机推荐
- [Java] 使用转换流来处理标准输入
package test.stream; import java.io.BufferedReader; import java.io.IOException; import java.io.Input ...
- NYOJ-228 士兵杀敌5
士兵杀敌(五) 时间限制:2000 ms | 内存限制:65535 KB 难度:5 描述 南将军麾下有百万精兵,现已知共有M个士兵,编号为0~M,每次有任务的时候,总会有一批编号连在一起人请战(编 ...
- kylin一种OLAP的实现
1.基于hive.hadoop的预先计算. 2.cube存储在HBASE里面.利用HBase的列存储,实现MOLAP 3.在cube上做数据分析,kylin实现标准的SQL,实现查询HBase 所以说 ...
- window8.1中用户的管理员权限的提升方法
1.使用命令netplwiz 2.点击确定后出现如下所示的内容,选择待修改的用户 3.然后点击属性,出现如图的内容 在上图中选中管理员左侧的单选按钮便可以了,将当前用户提升为管理员账户.
- svn 常用操作命令
svn 常用操作命令 检出 svn checkout http://路径(目录或文件的全路径) [本地目录全路径] --username 用户名 svn checkout svn://路径(目录或文件 ...
- Android开发-API指南-Content Provider
Content Providers 英文原文:http://developer.android.com/guide/topics/providers/content-providers.html 采集 ...
- the error code is 2203
权限不够 切换管理员再操作
- CentOS6.5 ssh远程连接缓慢解决方法
UseDNS no GSSAPIAuthentication no 1.适用命令及方案如下:[远程连接及执行命令]ssh -p22 root@10.0.0.19ssh -p22 root@10.0.0 ...
- jQ复制按钮的插件zclip
zclip官网:http://www.steamdev.com/zclip/ swf文件国内下载:ZeroClipboard.swf jQuery-zclip是一个复制内容到剪贴板的jQuery插件, ...
- 学习STL-介绍一下STL
从大学时就开始学习C++,到现在近5年的时间了却很少用到STL.现在想想真得是对不起这门语言,也对不起宝贵的五年光阴.我钟爱C++,所以一定要完全搞懂它,理解它.爱一个人的前提是要懂他(她),爱一门语 ...