〇、概述

1、常见资料

(1)confluent

https://docs.confluent.io/5.4.0/connect/kafka-connect-jdbc/sink-connector/sink_config_options.html

一、可用的sink/source配置

(一)source connector

1、根据自增id的source

(1)订单表
{
    "name": "source_connect_Oracle_Test_T_Order_0905",
    "config": {
        "connector.class": "com.ecer.kafka.connect.oracle.OracleSourceConnector",
        "reset.offset": "true",
        "incrementing.column.name": "AUUID_0",
        "db.hostname": "192.168.0.100",
        "tasks.max": "1",
        "db.user.password": "system",
        "table.blacklist": "",
        "table.whitelist": "TEST.T_Order",
        "mode": "incrementing",
        "db.user": "system",
        "db.port": "1521",
        "db.fetch.size": "1",
        "multitenant": "false",
        "name": "source_connect_Oracle_Test_T_Order_0905",
        "topic": "connect_topic_Test_T_Order_0905",
        "parse.dml.data": "true",
        "db.name": "helowin",
        "db.name.alias": "helowin"
    },
    "tasks": [
        {
            "connector": "source_connect_Oracle_Test_T_Order_0905",
            "task": 0
        }
    ],
    "type": "source"
}

(2)用户表

1、Oracle的source
{
    "name": "ORACLE_TEST_ID_TIMESTAMP_INC",
    "config": {
        "connector.class": "com.ecer.kafka.connect.oracle.OracleSourceConnector",
        "reset.offset": "true",
        "incrementing.column.name": "ID",
        "db.hostname": "192.168.0.100",
        "tasks.max": "1",
        "db.user.password": "system",
        "table.blacklist": "",
        "table.whitelist": "TEST.T_USER",
        "mode": "incrementing",
        "db.user": "system",
        "db.port": "1521",
        "db.fetch.size": "1",
        "multitenant": "false",
        "name": "ORACLE_TEST_ID_TIMESTAMP_INC",
        "topic": "ORACLE_TEST_TOPIC",
        "parse.dml.data": "true",
        "db.name": "helowin",
        "db.name.alias": "helowin"
    },
    "tasks": [
        {
            "connector": "ORACLE_TEST_ID_TIMESTAMP_INC",
            "task": 0
        }
    ],
    "type": "source"
}
2、根据time自增的source
{
    "name": "source_connect_Oracle_Test_T_Order_timestamp_0905",
    "config": {
        "connector.class": "com.ecer.kafka.connect.oracle.OracleSourceConnector",
        "reset.offset": "true",
        "timestamp.column.name": "UPDDATTIM_0",
        "db.hostname": "192.168.0.100",
        "tasks.max": "1",
        "db.user.password": "system",
        "table.blacklist": "",
        "table.whitelist": "TEST.T_Order",
        "mode": "timestamp incrementing",
        "db.user": "system",
        "db.port": "1521",
        "db.fetch.size": "1",
        "multitenant": "false",
        "name": "source_connect_Oracle_Test_T_Order_timestamp_0905",
        "topic": "topic_Test_T_Order_timestamp_0905",
        "parse.dml.data": "true",
        "db.name": "helowin",
        "db.name.alias": "helowin"
    },
    "tasks": [
        {
            "connector": "source_connect_Oracle_Test_T_Order_timestamp_0905",
            "task": 0
        }
    ],
    "type": "source"
}

3、基于confluent的JDBC source

{
    "name": "JDBC_ORACLE_SOURCE1",
    "config": {
        "connector.class": "io.confluent.connect.jdbc.JdbcSourceConnector",
        "mode": "incrementing",
        "incrementing.column.name": "ID",
        "topic.prefix": "JDBC_ORACLE_SOURCE_",
        "connection.password": "system",
        "connection.user": "system",
        "name": "JDBC_ORACLE_SOURCE1",
        "connection.url": "jdbc:oracle:thin:@//192.168.0.100:1521/helowin",
        "table.whitelist": "TEST.T_USER"
    },
    "tasks": [
        {
            "connector": "JDBC_ORACLE_SOURCE1",
            "task": 0
        }
    ],
    "type": "source"
}
(二)sink
{
    "name": "POSTGRESQL_SINK_TEST",
    "config": {
        "connector.class": "io.confluent.connect.jdbc.JdbcSinkConnector",
        "table.name.format": "wxf_test.T_USER",
        "connection.password": "qaz123",
        "tasks.max": "1",
        "topics": "JDBC_ORACLE_SOURCE_T_USER",
        "delete.enabled": "false",
        "auto.evolve": "true",
        "connection.user": "postgres",
        "name": "POSTGRESQL_SINK_TEST",
        "auto.create": "true",
        "connection.url": "jdbc:postgresql://170.0.0.1:5432/bigdata",
        "insert.mode": "upsert",
        "pk.mode": "record_value"
    },
    "tasks": [
        {
            "connector": "POSTGRESQL_SINK_TEST",
            "task": 0
        }
    ],
    "type": "sink"
}
 

【大数据】kafka-02:Kafka Connect内容、原理及使用的更多相关文章

  1. 大数据技术之Kafka

    Kafka概述 1.1 消息队列     (1)点对点模式(一对一,消费者主动拉取数据,消息收到后消息清除) 点对点模型通常是一个基于拉取或者轮询的消息传送模型,这种模型从队列中请求信息,而不是将消息 ...

  2. 大数据平台搭建-kafka集群的搭建

    本系列文章主要阐述大数据计算平台相关框架的搭建,包括如下内容: 基础环境安装 zookeeper集群的搭建 kafka集群的搭建 hadoop/hbase集群的搭建 spark集群的搭建 flink集 ...

  3. 入门大数据---Flume整合Kafka

    一.背景 先说一下,为什么要使用 Flume + Kafka? 以实时流处理项目为例,由于采集的数据量可能存在峰值和峰谷,假设是一个电商项目,那么峰值通常出现在秒杀时,这时如果直接将 Flume 聚合 ...

  4. 【原创】大数据基础之Kafka(1)简介、安装及使用

    kafka2.0 http://kafka.apache.org 一 简介 Kafka® is used for building real-time data pipelines and strea ...

  5. 大数据基础之Kafka(1)简介、安装及使用

    kafka2.0 http://kafka.apache.org 一 简介 Kafka® is used for building real-time data pipelines and strea ...

  6. 大数据 --> 分布式文件系统HDFS的工作原理

    分布式文件系统HDFS的工作原理 Hadoop分布式文件系统(HDFS)是一种被设计成适合运行在通用硬件上的分布式文件系统.HDFS是一个高度容错性的系统,适合部署在廉价的机器上.它能提供高吞吐量的数 ...

  7. 大数据开发实战:MapReduce内部原理实践

    下面结合具体的例子详述MapReduce的工作原理和过程. 以统计一个大文件中各个单词的出现次数为例来讲述,假设本文用到输入文件有以下两个: 文件1: big data offline data on ...

  8. 大数据 -- zookeeper和kafka集群环境搭建

    一 运行环境 从阿里云申请三台云服务器,这里我使用了两个不同的阿里云账号去申请云服务器.我们配置三台主机名分别为zy1,zy2,zy3. 我们通过阿里云可以获取主机的公网ip地址,如下: 通过secu ...

  9. 《OD大数据实战》Kafka入门实例

    官网: 参考文档: Kafka入门经典教程 Kafka工作原理详解 一.安装zookeeper 1. 下载zookeeper-3.4.5-cdh5.3.6.tar.gz 下载地址为: http://a ...

  10. 大数据安装之Kafka(用于实时处理的消息队列)

    一.安装部署kafka 1.集群规划 hadoop102                                 hadoop103                          hado ...

随机推荐

  1. Kubernetes的kubectl常用命令速记

    文章转载自:https://mp.weixin.qq.com/s/0kqQzeA-MzCOhPMkmiR4_A kubectl是用来管理Kubernetes集群的命令行工具. kubectl默认在&q ...

  2. 安装ceph (快速) 步骤三: Ceph 客户端

    大多数 Ceph 用户不会直接往 Ceph 存储集群里存储对象,他们通常会使用 Ceph 块设备. Ceph 文件系统.或 Ceph 对象存储这三大功能中的一个或多个. 前提条件 先完成存储集群快速入 ...

  3. 第一章:模型层 - 5:模型的元数据Meta

    模型的元数据,指的是"除了字段外的所有内容",例如排序方式.数据库表名.人类可读的单数或者复数名等等.所有的这些都是非必须的,甚至元数据本身对模型也是非必须的.但是,我要说但是,有 ...

  4. 使用KubeOperator安装k8s集群后,节点主机yaml文件路径

    [root@k8s-develop-master-1 kubernetes]# cd /etc/kubernetes [root@k8s-develop-master-1 kubernetes]# l ...

  5. 使用Receiver接收告警信息

    告警接收器可以通过以下形式进行配置: receivers: - <receiver> ... 每一个receiver具有一个全局唯一的名称,并且对应一个或者多个通知方式: name: &l ...

  6. 2_Git

    一. 引言 在单人开发过程中, 需要进行版本管理, 以利于开发进度的控制 在多人开发过程中, 不仅需要版本管理, 还需要进行多人协同控制 二. 介绍 Git是一个开源的分布式版本控制系统, 用于敏捷高 ...

  7. 基于Qt Designer和PyQt5的桌面软件开发--环境搭建和入门例子

      本文介绍了如何使用技术栈PyCharm+Qt Designer+PyQt5来开发桌面软件,从环境搭建.例子演示到对容易混淆概念的解释.文中用到的全部软件+代码下载链接为:https://url39 ...

  8. Codeforces Round #709 Div2

    就ac了一题.QAQ掉分了我好难过. A题要画图推出来公式. B不会,现在没看到好懂得题解. C题,思路错了,给一些数,每天只能选其中一些,每个数不能被选超过k次,应该先将每天只能选一个得这个数先选上 ...

  9. MYSQL-->函数与约束条件

    函数 用法 函数最常用的地方就是查询语句处 select 函数(字段) from 表名; select 字段列表 from 表名 group by 分组字段 having 函数(字段); 字符串函数( ...

  10. 编写HelloWorld并运行

    1在任意地方右键点新建 2创建一个文本文档 3修改名字,改为HelloWorld.java 4打开文件扩展名,查看后缀 打开后再去看文件名后缀有没有.txt,如果有的话就不是java文件,把后缀的.t ...