kafka connector
Kafka Connect
是一种用于在 Kafka 和其他系统之间可扩展的、可靠的的流式传输数据的工具。它使得能偶快速定义将大量数据集合移入和移除 kafka 连接器变得简单。
kafka connect 可以从数据库或者应用程序服务器收到数据到 kafka topic ,使数据可以用于低延迟的流处理。导出作业可以将数据从 kakfa topic 传输到二次存储和查询系统,或者传递
到批处理系统以进行离线分析
Kafka connect 概念
- Source: 负责导入数据到kafka
- Sink 负责从kafka 导出数据
- Connectors 通过管理任务来协调数据流的高级抽象
- Tasks 数据写入 kafka 和从 Kafka 中读取具体实现
- workers 运行 connectors 和tasks 的进程
- Converters : kafka connet 和其他存储系统直接发送或者接受数据之前转换数据
- Transforms : 一种轻量级数据调整工具
工作模式
kafka connect 有 2 中工作模式
- standalone: 在 standalone 模式中,所有的worker 都在一个独立的进程中完成
- distributed : distributed 模式具有高扩展性,以及提供自动容错机制。你可以使用一个 group.id 在启动很多worker 进行,在有效的 worker 进程中他们会自动的去协调执行 connector 和task.
- GET /connectors 返回所有正在运行的 connector 的信息
- POST /connectors 新建一个 connectors,必须是 json 格式并且需要包含 name 和 config 字段,name 是 connector 的名字,config 是 json 格式,包含connector 的配置信息
- GET /connectors/{name} 获取指定 connectir 的信息
- GET /connectors/{name}/config 囧去指定connector 的配置信息
- GET /connectors/{name}/status 获取状态,是否允许,是否报错等
- GET /connectors/{name}/tasks 获取正在运行的 task
- GET /connectors/{name}/tasks/status 获取tasks 状态
- PUT /connectors/{name}/pause 暂停
- PUT /connectors/{name}/resume 恢复被暂停的 connector
- POST /connectors/{name}/restart 重启
- POST /connectors/{name}/tasks/{taskid}/restart 重启taks
- DELETE /connectors/{name} 删除connector ,停止所有task ,并删除配置
参考:https://my.oschina.net/hnrpf/blog/1555915
kafka connector的更多相关文章
- Flink Kafka Connector 与 Exactly Once 剖析
Flink Kafka Connector 是 Flink 内置的 Kafka 连接器,它包含了从 Kafka Topic 读入数据的 Flink Kafka Consumer 以及向 Kafka T ...
- debezium、kafka connector 解析 mysql binlog 到 kafak
目的: 需要搭建一个可以自动监听MySQL数据库的变化,将变化的数据捕获处理,此处只讲解如何自动捕获mysql 中数据的变化 使用的技术 debezium :https://debezium.io/d ...
- 《Flink SQL任务自动生成与提交》后续:修改flink源码实现kafka connector BatchMode
目录 问题 思路 kafka参数问题 支持batchmode的问题 参数提交至kafkasource的问题 group by支持问题 实现 编译 测试 因为在一篇博文上看到介绍"汽车之家介绍 ...
- kafka connector 使用总结以及自定义connector开发
Kafaka connect 是一种用于在Kafka和其他系统之间可扩展的.可靠的流式传输数据的工具.它使得能够快速定义将大量数据集合移入和移出Kafka的连接器变得简单.Kafka Connect可 ...
- Kafka Connector无法启动的原因
如图:启动Connector的时候一直提示报错. 后面找了一下网上发现原因, 基本原因就是Kafka的lib包和插件包都添加到ClassPath里面了 而这两地方都有Kafka-Client的jar包 ...
- Kafka connector (kafka核心API)
前言 Kafka Connect是一个用于将数据流输入和输出Kafka的框架.Confluent平台附带了几个内置connector,可以使用这些connector进行关系数据库或HDFS等常用系统到 ...
- Confluent之Kafka Connector初体验
概述 背景 Apache Kafka 是最大.最成功的开源项目之一,可以说是无人不知无人不晓,在前面的文章<Apache Kafka分布式流处理平台及大厂面试宝典>我们也充分认识了Kafk ...
- Kafka分布式集群搭建
环境说明 kafka自0.9之后增加了connector的特性.本文主要是搭建一个分布式的kafka connector和broker. 本文用了三台机器进行部署,使用centos 6.6. host ...
- Kafka connect快速构建数据ETL通道
摘要: 作者:Syn良子 出处:http://www.cnblogs.com/cssdongl 转载请注明出处 业余时间调研了一下Kafka connect的配置和使用,记录一些自己的理解和心得,欢迎 ...
随机推荐
- winform学习(5)MDI窗体
SDI窗体 single document interface 单文档界面,即单个简单的窗体 MDI窗体 multiple document interface 多文档界面(主窗体与子窗体的关系,避免 ...
- Linux jpeglib库的安装
tar -zxvf jpegsrc.v9.tar.gz cd jpeg9 ./configure --enable-shared --enable-static 分别对动态链接库和静态链接库的支持 ...
- OSI七层协议详解
一.简介 开放系统互连参考模型 (Open System Interconnect 简称OSI)是国际标准化组织(ISO)和国际电报电话咨询委员会(CCITT)联合制定的开放系统互连参考模型,为开放式 ...
- 结合sqlmap进行sql注入过程
结合sqlmap进行sql注入:(-r后面是通过burp suite抓出来的请求包:-p后面是注入点,即该请求里携带的某个参数) Get请求的注入: ./sqlmap.py -r rss_test.t ...
- drf框架,restful接口规范,源码分析
复习 """ 1.vue如果控制html 在html中设置挂载点.导入vue.js环境.创建Vue对象与挂载点绑定 2.vue是渐进式js框架 3.vue指令 {{ }} ...
- Django视图层、模板层
过滤器方法 upper 大写方式输出 add 给value加上一个数值 capfirst 第一个字母大写 center 输出指定长度的字符串,把变量居中 cut 删除指定字符串 date 格式化日期 ...
- Flask的基本使用
最基本的一个Flask模板,实现本地9898端口访问,页面返回hello world from flask import Flask app = Flask(__name__) @app.route( ...
- Codeforces Round #624 (Div. 3) D. Three Integers
You are given three integers a≤b≤ca≤b≤c . In one move, you can add +1+1 or −1−1 to any of these inte ...
- 并发之CountDownLatch用法详解
概念 CountDownLatch 是一个同步工具类,它允许一个或多个线程一直等待,直到其他线程执行完后再执行.例如,应用程序的主线程希望在负责启动框架服务的线程已经启动所有的框架服务之后执行. Co ...
- 第五节: 前后端交互之Promise用法和Fetch用法
一. Promise相关 1.说明 主要解决异步深层嵌套的问题,promise 提供了简洁的API 使得异步操作更加容易 . 2.入门使用 我们使用new来构建一个Promise Promise的构造 ...