【大数据】kafka-02:Kafka Connect内容、原理及使用
〇、概述
1、常见资料
(1)confluent
https://docs.confluent.io/5.4.0/connect/kafka-connect-jdbc/sink-connector/sink_config_options.html
一、可用的sink/source配置
(一)source connector
1、根据自增id的source
(1)订单表
{
"name": "source_connect_Oracle_Test_T_Order_0905",
"config": {
"connector.class": "com.ecer.kafka.connect.oracle.OracleSourceConnector",
"reset.offset": "true",
"incrementing.column.name": "AUUID_0",
"db.hostname": "192.168.0.100",
"tasks.max": "1",
"db.user.password": "system",
"table.blacklist": "",
"table.whitelist": "TEST.T_Order",
"mode": "incrementing",
"db.user": "system",
"db.port": "1521",
"db.fetch.size": "1",
"multitenant": "false",
"name": "source_connect_Oracle_Test_T_Order_0905",
"topic": "connect_topic_Test_T_Order_0905",
"parse.dml.data": "true",
"db.name": "helowin",
"db.name.alias": "helowin"
},
"tasks": [
{
"connector": "source_connect_Oracle_Test_T_Order_0905",
"task": 0
}
],
"type": "source"
}
(2)用户表
1、Oracle的source
{
"name": "ORACLE_TEST_ID_TIMESTAMP_INC",
"config": {
"connector.class": "com.ecer.kafka.connect.oracle.OracleSourceConnector",
"reset.offset": "true",
"incrementing.column.name": "ID",
"db.hostname": "192.168.0.100",
"tasks.max": "1",
"db.user.password": "system",
"table.blacklist": "",
"table.whitelist": "TEST.T_USER",
"mode": "incrementing",
"db.user": "system",
"db.port": "1521",
"db.fetch.size": "1",
"multitenant": "false",
"name": "ORACLE_TEST_ID_TIMESTAMP_INC",
"topic": "ORACLE_TEST_TOPIC",
"parse.dml.data": "true",
"db.name": "helowin",
"db.name.alias": "helowin"
},
"tasks": [
{
"connector": "ORACLE_TEST_ID_TIMESTAMP_INC",
"task": 0
}
],
"type": "source"
}
2、根据time自增的source
{
"name": "source_connect_Oracle_Test_T_Order_timestamp_0905",
"config": {
"connector.class": "com.ecer.kafka.connect.oracle.OracleSourceConnector",
"reset.offset": "true",
"timestamp.column.name": "UPDDATTIM_0",
"db.hostname": "192.168.0.100",
"tasks.max": "1",
"db.user.password": "system",
"table.blacklist": "",
"table.whitelist": "TEST.T_Order",
"mode": "timestamp incrementing",
"db.user": "system",
"db.port": "1521",
"db.fetch.size": "1",
"multitenant": "false",
"name": "source_connect_Oracle_Test_T_Order_timestamp_0905",
"topic": "topic_Test_T_Order_timestamp_0905",
"parse.dml.data": "true",
"db.name": "helowin",
"db.name.alias": "helowin"
},
"tasks": [
{
"connector": "source_connect_Oracle_Test_T_Order_timestamp_0905",
"task": 0
}
],
"type": "source"
}
3、基于confluent的JDBC source
【大数据】kafka-02:Kafka Connect内容、原理及使用的更多相关文章
- 大数据技术之Kafka
Kafka概述 1.1 消息队列 (1)点对点模式(一对一,消费者主动拉取数据,消息收到后消息清除) 点对点模型通常是一个基于拉取或者轮询的消息传送模型,这种模型从队列中请求信息,而不是将消息 ...
- 大数据平台搭建-kafka集群的搭建
本系列文章主要阐述大数据计算平台相关框架的搭建,包括如下内容: 基础环境安装 zookeeper集群的搭建 kafka集群的搭建 hadoop/hbase集群的搭建 spark集群的搭建 flink集 ...
- 入门大数据---Flume整合Kafka
一.背景 先说一下,为什么要使用 Flume + Kafka? 以实时流处理项目为例,由于采集的数据量可能存在峰值和峰谷,假设是一个电商项目,那么峰值通常出现在秒杀时,这时如果直接将 Flume 聚合 ...
- 【原创】大数据基础之Kafka(1)简介、安装及使用
kafka2.0 http://kafka.apache.org 一 简介 Kafka® is used for building real-time data pipelines and strea ...
- 大数据基础之Kafka(1)简介、安装及使用
kafka2.0 http://kafka.apache.org 一 简介 Kafka® is used for building real-time data pipelines and strea ...
- 大数据 --> 分布式文件系统HDFS的工作原理
分布式文件系统HDFS的工作原理 Hadoop分布式文件系统(HDFS)是一种被设计成适合运行在通用硬件上的分布式文件系统.HDFS是一个高度容错性的系统,适合部署在廉价的机器上.它能提供高吞吐量的数 ...
- 大数据开发实战:MapReduce内部原理实践
下面结合具体的例子详述MapReduce的工作原理和过程. 以统计一个大文件中各个单词的出现次数为例来讲述,假设本文用到输入文件有以下两个: 文件1: big data offline data on ...
- 大数据 -- zookeeper和kafka集群环境搭建
一 运行环境 从阿里云申请三台云服务器,这里我使用了两个不同的阿里云账号去申请云服务器.我们配置三台主机名分别为zy1,zy2,zy3. 我们通过阿里云可以获取主机的公网ip地址,如下: 通过secu ...
- 《OD大数据实战》Kafka入门实例
官网: 参考文档: Kafka入门经典教程 Kafka工作原理详解 一.安装zookeeper 1. 下载zookeeper-3.4.5-cdh5.3.6.tar.gz 下载地址为: http://a ...
- 大数据安装之Kafka(用于实时处理的消息队列)
一.安装部署kafka 1.集群规划 hadoop102 hadoop103 hado ...
随机推荐
- 使用containerlab搭建cilium BGP环境解析
使用 Containerlab + Kind 快速部署 Cilium BGP 环境一文中使用Containerlab和Cilium实现了模拟环境下的Cilium BGP网络.它使用Containerl ...
- C语言大作业---学生信息管理系统
xxxx信息管理系统 简介 因为大作业规定的踩分项就那么多,为了不浪费时间 + 得分,就写成这样.现在看看,命名不规范,书写风格糟糕,全塞在一个源代码中······ 不过,应付大作业是没问题的 实验报 ...
- MongoDB 副本集故障情况描述
副本集有两种类型三种角色 两种类型: 主节点( Primary)类型:数据操作的主要连接点,可读写. 次要(辅助.从)节点( Secondaries)类型:数据冗余备份节点,可以读或选举. 三种角色: ...
- docker还原挂载在宿主机的mysql数据
ps:有个项目的数据库之前是docker的mysql镜像,数据都去mysql的镜像里面拿数据,但是目前镜像里面的数据库是空的,所以现在来说明一下如何恢复数据 1.创建数据卷 docker volume ...
- 「Chroot环境」Debian Testing amd64 on arm64
这个是适用于ARM64环境的AMD64 Debian Testing系统.基于FEX转译.这个系统运行在ARM64的手机和电脑上,运行的软件是AMD64(X64)格式.下载链接提供桌面版和基础版.适用 ...
- vue3中pinia的使用总结
pinia的简介和优势: Pinia是Vue生态里Vuex的代替者,一个全新Vue的状态管理库.在Vue3成为正式版以后,尤雨溪强势推荐的项目就是Pinia.那先来看看Pinia比Vuex好的地方,也 ...
- P5658 [CSP-S2019] 括号树
对于特殊性质fi=i-1,原图是一条链,注意到当前节点是' ('不会产生贡献,')'才会产生,那么思考怎么的计算这个贡献. ()()():每个位置贡献是0,1,0,2,0,3.答案统计出来就是说0,1 ...
- 洛谷U81904 【模板】树的直径
有负边权,所以用树形DP来找树的直径. 1 //树形DP求树的直径 2 #include<bits/stdc++.h> 3 using namespace std; 4 const int ...
- 使用EF Core更新与修改生产数据库
使用EF Core的Code First,在设计阶段,直接使用Database.EnsureCreated()和EnsureDeleted()可以快速删除.更新最新的数据结构.由于没有什么数据,删除的 ...
- Goland Socket 服务
客户端发送消息 并接收服务端消息 package main import ( "fmt" "net" ) func main() { // conn, err ...