kafka源码系列之mysql数据增量同步到kafka
一,架构介绍
生产中由于历史原因web后端,mysql集群,kafka集群(或者其它消息队列)会存在一下三种结构。
1,数据先入mysql集群,再入kafka
数据入mysql集群是不可更改的,如何再高效的将数据写入kafka呢?
A),在表中存在自增ID的字段,然后根据ID,定期扫描表,然后将数据入kafka。
B),有时间字段的,可以按照时间字段定期扫描入kafka集群。
C),直接解析binlog日志,然后解析后的数据写入kafka。
2,web后端同时将数据写入kafka和mysql集群
3,web后端将数据先入kafka,再入mysql集群
这个方式,有很多优点,比如可以用kafka解耦,然后将数据按照离线存储和计算,实时计算两个模块构建很好的大数据架构。抗高峰,便于扩展等等。
二,实现步骤
1,mysql安装准备
安装mysql估计看这篇文章的人都没什么问题,所以本文不具体讲解了。
A),假如你单机测试请配置好server_id
B),开启binlog,只需配置log-bin
[root@localhost ~]# cat /etc/my.cnf
[mysqld]
server_id=1
datadir=/var/lib/mysql
socket=/var/lib/mysql/mysql.sock
user=mysql
# Disabling symbolic-links is recommended to prevent assorted security risks
symbolic-links=0
log-bin=/var/lib/mysql/mysql-binlog
[mysqld_safe]
log-error=/var/log/mysqld.log
pid-file=/var/run/mysqld/mysqld.pid
?
创建测试库和表
create database school character set utf8 collate utf8_general_ci;
?
create table student(
name varchar(20) not null comment '姓名',
sid int(10) not null primary key comment '学员',
majora varchar(50) not null default '' comment '专业',
tel varchar(11) not null unique key comment '手机号',
birthday date not null comment '出生日期'
);
2,binlog日志解析
两种方式:
一是扫面binlog文件(有需要的话请联系浪尖)
二是通过复制同步的方式
暂实现了第二种方式,样例代码如下:
MysqlBinlogParse mysqlBinlogParse=new MysqlBinlogParse(args[0],Integer.valueOf(args[1]),args[2],args[3]){
@Override
public void
processDelete(String queryType,
String
database,
String sql)
{
try
{
String
jsonString=SqlParse.parseDeleteSql(sql);
JSONObject
jsonObject=JSONObject.fromObject(jsonString);
jsonObject.accumulate("database",
database);
jsonObject.accumulate("queryType",
queryType);
System.out.println(sql);
System.out.println("
");
System.out.println("
");
System.out.println(jsonObject.toString());
}
catch
(Exception
e) {
//
TODO
Auto-generated catch block
e.printStackTrace();
}
}
@Override
public void
processInsert(String queryType,
String
database,
String sql)
{
try
{
String
jsonString=SqlParse.parseInsertSql(sql);
JSONObject
jsonObject=JSONObject.fromObject(jsonString);
jsonObject.accumulate("database",
database);
jsonObject.accumulate("queryType",
queryType);
System.out.println(sql);
System.out.println("
");
System.out.println("
");
System.out.println(jsonObject.toString());
}
catch
(Exception
e) {
//
TODO
Auto-generated catch block
e.printStackTrace();
}
}
@Override
public void
processUpdate(String queryType,
String
database,
String sql)
{
String
jsonString;
try
{
jsonString=SqlParse.parseUpdateSql(sql);
JSONObject
jsonObject=JSONObject.fromObject(jsonString);
jsonObject.accumulate("database",
database);
jsonObject.accumulate("queryType",
queryType);
System.out.println(sql);
System.out.println("
");
System.out.println("
");
System.out.println(jsonObject.toString());
}
catch
(Exception
e) {
//
TODO
Auto-generated catch block
e.printStackTrace();
}
}
};
mysqlBinlogParse.setServerId(3);
mysqlBinlogParse.start();
?
?
3,sql语法解析
从原始的mysql 的binlog
event中,我们能解析到的信息,主要的也就是mysql的database,query类型(INSERT,DELETE,UPDATE),具体执行的sql。我这里封装了三个重要的方法。只暴露了这三个接口,那么我们要明白的事情是,美味的英文我们入kafka,然后流式处理的时候希望的到的是跟插入mysql后一样格式的数据。这个时候我们就要自己做sql的解析,将query的sql解析成字段形式的数据,供流式处理。解析的格式如下:
A),INSERT
B),DELETE
C),UPDATE
最终浪尖是将解析后的数据封装成了json,然后我们自己写kafka producer将消息发送到kafka,后端就可以处理了。
三,总结
最后,浪尖还是建议web后端数据最好先入消息队列,如kafka,然后分离线和实时将数据进行解耦分流,用于实时处理和离线处理。
?
消息队列的订阅者可以根据需要随时扩展,可以很好的扩展数据的使用者。
?
消息队列的横向扩展,增加吞吐量,做起来还是很简单的。这个用传统数据库,分库分表还是很麻烦的。
?
由于消息队列的存在,也可以帮助我们抗高峰,避免高峰时期后端处理压力过大导致整个业务处理宕机。
?
具体源码球友可以在知识星球获取。
欢迎大家进入知识星球,学习更多更深入的大数据知识,面试经验,获取更多更详细的资料。
文章来源:https://blog.csdn.net/rlnLo2pNEfx9c/article/details/80682269
kafka源码系列之mysql数据增量同步到kafka的更多相关文章
- Kafka源码系列之源码分析zookeeper在kafka的作用
浪尖的kafka源码系列以kafka0.8.2.2源码为例给大家进行讲解的.纯属个人爱好,希望大家对不足之处批评指正. 一,zookeeper在分布式集群的作用 1,数据发布与订阅(配置中心) 发布与 ...
- Kafka 源码剖析
1.概述 在对Kafka使用层面掌握后,进一步提升分析其源码是极有必要的.纵观Kafka源码工程结构,不算太复杂,代码量也不算大.分析研究其实现细节难度不算太大.今天笔者给大家分析的是其核心处理模块, ...
- Kafka源码分析系列-目录(收藏不迷路)
持续更新中,敬请关注! 目录 <Kafka源码分析>系列文章计划按"数据传递"的顺序写作,即:先分析生产者,其次分析Server端的数据处理,然后分析消费者,最后再补充 ...
- MySQL数据实时增量同步到Kafka - Flume
转载自:https://www.cnblogs.com/yucy/p/7845105.html MySQL数据实时增量同步到Kafka - Flume 写在前面的话 需求,将MySQL里的数据实时 ...
- MySQL 源码系列:1:窥探篇
1:下载源码 http://cdn.mysql.com/Downloads/MySQL-5.6/mysql-5.6.25.tar.gz http://dev.mysql.com/downloads/m ...
- 2-14 MySQL初步认识,及CentOS6.8环境,源码方式安装MySQL
什么是数据库: 存放数据的仓库RDBMS-->(Relational Database Management System) 关系型数据库管理系统DBMS--->(Database Man ...
- Sping源码+Redis+Nginx+MySQL等七篇实战技术文档,阿里大佬推荐
JVM JVM是Java Virtual Machine(Java虚拟机)的缩写,JVM是一种用于计算设备的规范,它是一个虚构出来的计算机,是通过在实际的计算机上仿真模拟各种计算机功能来实现的. 引入 ...
- Kafka源码分析(二) - 生产者
系列文章目录 https://zhuanlan.zhihu.com/p/367683572 目录 系列文章目录 一. 使用方式 step 1: 设置必要参数 step 2: 创建KafkaProduc ...
- Kafka源码分析(一) - 概述
系列文章目录 https://zhuanlan.zhihu.com/p/367683572 目录 系列文章目录 一. 实际问题 二. 什么是Kafka, 如何解决这些问题的 三. 基本原理 1. 基本 ...
随机推荐
- 代理实现aop以及代理工厂实现增强
一.静态代理实现 1.接口(抽象主题) 2.接口的实现类(真实主题) 3.代理类(代理主题) 4.测试类: ApplicationContext context=new ClassPathXmlApp ...
- Linux-使用之vim出现的问题
参考来源: https://stackoverflow.com/questions/47667119/ycm-error-the-ycmd-server-shut-down-restart-wit-t ...
- android 基础学习(6)-----sqlite3查看表结构
原文:http://blog.csdn.net/richnaly/article/details/7831933 sqlite3查看表结构 在android下通过adb shell命令可以进入sqli ...
- 《算法技术手册》George T. Heineman(作者)epub+mobi+azw3
内容简介 开发健壮的软件需要高效的算法,然后程序员们往往直至问题发生之时,才会去求助于算法.<算法技术手册>讲解了许多现有的算法,可用于解决各种问题.通过阅读它,可以使您学会如何选择和实现 ...
- Django 3.0中不推荐使用的及已经删除的功能
3.0中不推荐使用的功能 django.utils.encoding.force_text()和smart_text()的别名被弃用.如果您的代码支持Python 2,smart_str()并且 fo ...
- 「UVA10559」Blocks
传送门 Luogu 解题思路 考虑区间 \(\text{DP}\). 设 \(f[i][j][k]\) 表示 \([i,j]\) 这段区间接上后面 \(k\) 个与 \(j\) 颜色相同的块得到的答案 ...
- k-近邻算法采用for循环调参方法
//2019.08.02下午#机器学习算法中的超参数与模型参数1.超参数:是指机器学习算法运行之前需要指定的参数,是指对于不同机器学习算法属性的决定参数.通常来说,人们所说的调参就是指调节超参数.2. ...
- pip install .whl文件时is not a supported wheel on this platform.解决方法
首先,在python中输入import pip和print(pip.pep425tags.get_supported()),从而获取pip支持的文件名和版本. somnus@somnus-HP-Pa ...
- docker中使用mongodb
连接mongodb容器,下拉alpine应用测试连接
- 通过虚拟机增加Linux的磁盘(分区容量)
因为安装oracle设置的磁盘空间不足,所以安装失败.这里总结一下如何添加磁盘挂载 1. 右键虚拟机点击设置,然后点击磁盘,点击添加按钮 2.然后点击下一步下一步,直到安装成功 3.然后输入 fdis ...