1. 上传并解压 Sqoop 安装文件

将 sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz 安装包上传到 node-01 的 /root/ 目录下并将其解压

[root@node-01 ~]# tar -zxf sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz -C apps/
[root@node-01 ~]# rm -rf sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz
[root@node-01 ~]# cd /root/apps/
[root@node-01 apps]# mv sqoop-1.4.7.bin__hadoop-2.6.0/ sqoop-1.4.7
2. 修改配置文件
  • 进入到 conf 目录,重命名配置文件
[root@node-01 ~]# cd /root/apps/sqoop-1.4.7/conf
[root@node-01 conf]# mv sqoop-env-template.sh sqoop-env.sh
[root@hdp-01 conf]# vim sqoop-env.sh 

#取消23行注释
export HADOOP_COMMON_HOME=/root/apps/hadoop-3.2.1/ #取消26行注释
export HADOOP_MAPRED_HOME=/root/apps/hadoop-3.2.1/ #取消29行注释
export HBASE_HOME=/root/apps/hbase-1.4.13 #取消32行注释
export HIVE_HOME=/root/apps/hive-3.1.2 #取消35行注释
export ZOOCFGDIR=/root/apps/zookeeper-3.4.6
3. 将 mysql 的驱动包放入 Sqoop 的 lib 中

上传 mysql-connector-java-8.0.21.jar 到 node-01 的 /root 目录下

[root@node-01 ~]# cd /root
[root@node-01 ~]# mv /root/mysql-connector-java-8.0.21.jar /root/apps/sqoop-1.4.7/lib/
[root@node-01 ~]# mv /root/commons-lang-2.6.jar /root/apps/sqoop-1.4.7/lib/
[root@node-01 ~]# cp /root/apps/hive-3.1.2/lib/hive-common-3.1.2.jar /root/apps/sqoop-1.4.7/lib/
[root@node-01 ~]# vim /etc/profile
#行尾添加
export SQOOP_HOME=/root/apps/sqoop-1.4.7
export PATH=$PATH:$SQOOP_HOME/bin
[root@node-01 ~]# source /etc/profile
4. 验证 Sqoop 可用性
  • 查看 Sqoop 帮助(help 命令)
[root@node-01 conf]# sqoop help
2020-12-03 17:25:57,421 INFO sqoop.Sqoop: Running Sqoop version: 1.4.7
usage: sqoop COMMAND [ARGS] # Sqoop 命令的用法 # 以下就是 Sqoop 工具支持的所有命令
Available commands:
codegen Generate code to interact with database records
create-hive-table Import a table definition into Hive
eval Evaluate a SQL statement and display the results
export Export an HDFS directory to a database table
help List available commands
import Import a table from a database to HDFS
import-all-tables Import tables from a database to HDFS
import-mainframe Import datasets from a mainframe server to HDFS
job Work with saved jobs
list-databases List available databases on a server
list-tables List available tables in a database
merge Merge results of incremental imports
metastore Run a standalone Sqoop metastore
version Display version information See 'sqoop help COMMAND' for information on a specific command.
  • 查看 Sqoop 安装版本(version 命令)
[root@node-01 ~]# sqoop version
2020-12-03 01:38:43,879 INFO sqoop.Sqoop: Running Sqoop version: 1.4.7
Sqoop 1.4.7 # 版本号
git commit id 2328971411f57f0cb683dfb79d19d4d19d185dd8
Compiled by maugli on Thu Dec 21 15:59:58 STD 2017
  • 使用 Sqoop 远程连接查看 MySQL 所有数据库列表(list-databases 命令)
[root@node-01 ~]# sqoop list-databases --connect jdbc:mysql://192.168.137.1:3306?serverTimezone=UTC --username hive --password hive
mysql
information_schema
performance_schema
sys
shopcar
db
sgs
hive_remote
  • 使用 Sqoop 远程连接查看 MySQL 某个数据库的所有表(list-tables 命令)
[root@node-01 ~]#  sqoop list-tables --connect jdbc:mysql://192.168.137.1:3306/db?serverTimezone=UTC --username hive --password hive
2020-12-03 17:49:14,368 INFO sqoop.Sqoop: Running Sqoop version: 1.4.7
2020-12-03 17:49:14,493 WARN tool.BaseSqoopTool: Setting your password on the command-line is insecure. Consider using -P instead.
2020-12-03 17:49:14,632 INFO manager.MySQLManager: Preparing to use a MySQL streaming resultset.
Loading class `com.mysql.jdbc.Driver'. This is deprecated. The new driver class is `com.mysql.cj.jdbc.Driver'. The driver is automatically registered via the SPI and manual loading of the driver class is generally unnecessary.
t_class
t_emp
t_student
t_subject

至此,Sqoop 安装成功。

Sqoop 安装部署的更多相关文章

  1. sqoop安装部署(笔记)

    sqoop是一个把关系型数据库数据抽向hadoop的工具.同时,也支持将hive.pig等查询的结果导入关系型数据库中存储.由于,笔者部署的hadoop版本是2.2.0,所以sqoop的版本是:sqo ...

  2. SQOOP安装部署

    1.环境准备 1.1软件版本 sqoop-1.4.5 下载地址 2.配置 sqoop的配置比较简单,下面给出需要配置的文件 2.1环境变量 sudo vi /etc/profile SQOOP_HOM ...

  3. Sqoop安装与使用(sqoop-1.4.5 on hadoop 1.0.4)

    1.什么是Sqoop Sqoop即 SQL to Hadoop ,是一款方便的在传统型数据库与Hadoop之间进行数据迁移的工具,充分利用MapReduce并行特点以批处理的方式加快数据传输,发展至今 ...

  4. 如何将mysql数据导入Hadoop之Sqoop安装

    Sqoop是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql.postgresql...)间进行数据的传递,可以将一个关系型数据库(例如 : MySQL ,Oracle , ...

  5. PRESTO安装部署和参数说明(一)

    PRESTO部署和参数说明(一) 一,概要 在部署和使用presto的过程中,在此记录一下部署记录和使用记录以及需要注意的事项.本人使用的presto版本是0.214,3台redhat虚拟机.使用背景 ...

  6. Flume的概述和安装部署

    一.Flume概述 Flume是一种分布式.可靠且可用的服务,用于有效的收集.聚合和移动大量日志文件数据.Flume具有基于流数据流的简单灵活的框架,具有可靠的可靠性机制和许多故障转移和恢复机制,具有 ...

  7. Azkaban介绍+安装部署+实战案例

    Azkaban介绍 什么是azkaban?1.工作流的作业调度系统2.通过k.v指令写法描述工作流节点3.可以通过web界面去管理工作流 Azkaban安装部署 2.3.1 准备工作 Azkaban ...

  8. Sqoop-1.4.6安装部署及详细使用介绍

    之所以选择Sqoop1是因为Sqoop2目前问题太多.无法正常使用,综合比较后选择Sqoop1. Sqoop1安装配置比较简单 一.安装部署 (1).下载安装包 下载地址:http://archive ...

  9. Hbase-0.96.2全然分布式安装部署

    Hbase-0.96.2全然分布式安装部署 环境: Hadoop-2.2.0 Zookeeper-3.4.6 hbase-0.96.2 1.下载hbase-0.96.2-hadoop2-bin.tar ...

随机推荐

  1. element Notification 通知文字换行小技巧

    this.$notify({ title: "通知", message: res.result, iconClass: "el-icon-bell",//自定义 ...

  2. DevOps教程:DevOps 面试题

     [注]本文译自:https://www.javatpoint.com/devops-interview-questions

  3. gitee 学习笔记

    这个流程只能是在自己的测试仓库中联系哟 首先创建一个自己的仓库 接下来安装git客户端,通过gitee官网给了一个例子创建ssh密钥 然后输入命令 get clone 你仓库的https 或者ssh地 ...

  4. ES系列(二):基于多播的集群发现实现原理解析

    ES作用超强悍的搜索引擎,除了需要具有齐全的功能支持,超高的性能,还必须要有任意扩展的能力.一定程度上,它是一个大数据产品.而要做扩展性,集群自然少不了.然而单独的集群又是不够的,能够做的事情太少,所 ...

  5. 自动化kolla-ansible部署ubuntu20.04+openstack-victoria之镜像制作fedora27-18

    自动化kolla-ansible部署ubuntu20.04+openstack-victoria之镜像制作fedora27-18 欢迎加QQ群:1026880196 进行交流学习   制作OpenSt ...

  6. GoF设计模式合集

    1 概述 这篇文章是对GoF23种设计模式+1种非GoF模式的合集,由笔者自己的笔记整理而来,每个模式都详细描述了步骤,角色等,以及使用Java实现的具体的例子. 2 基础 设计模式概述 UML与面向 ...

  7. 我与OAuth 2.0那点荒唐的小秘密

    OAuth2.0这个名词你是否在项目中时常听到呢?是否觉得好像懂,又好像不太懂呢? 最近一直想写篇关于OAuth2.0的东西,记录下我的学习与感悟,然各种理由的拖延,直到今日才静下心来写下这篇博客.当 ...

  8. JAVAEE_Servlet_05_ServletConfig接口

    ServletConfig接口 研究javax.servlet.ServletConfig接口 1.javax.servlet.ServletConfig是一个接口 2.Apache Tomcat服务 ...

  9. Day02_13_Javadoc_生成帮助文档

    JavaDoc 命令:javadoc -encoding UTF-8 -charset UTF-8 Doc.java 执行该命令后,会在java目录生成index.html打开就可以看到生成的文档了 ...

  10. 0609-搭建ResNet网络

    0609-搭建ResNet网络 目录 一.ResNet 网络概述 二.利用 torch 实现 ResNet34 网络 三.torchvision 中的 resnet34网络调用 四.第六章总结 pyt ...