欢迎访问我的GitHub

https://github.com/zq2599/blog_demos

内容:所有原创文章分类汇总及配套源码,涉及Java、Docker、Kubernetes、DevOPS等;

本篇概览

本文是《Flink的sink实战》系列的第三篇,主要内容是体验Flink官方的cassandra connector,整个实战如下图所示,我们先从kafka获取字符串,再执行wordcount操作,然后将结果同时打印和写入cassandra:

全系列链接

  1. 《Flink的sink实战之一:初探》
  2. 《Flink的sink实战之二:kafka》
  3. 《Flink的sink实战之三:cassandra3》
  4. 《Flink的sink实战之四:自定义》

软件版本

本次实战的软件版本信息如下:

  1. cassandra:3.11.6
  2. kafka:2.4.0(scala:2.12)
  3. jdk:1.8.0_191
  4. flink:1.9.2
  5. maven:3.6.0
  6. flink所在操作系统:CentOS Linux release 7.7.1908
  7. cassandra所在操作系统:CentOS Linux release 7.7.1908
  8. IDEA:2018.3.5 (Ultimate Edition)

关于cassandra

本次用到的cassandra是三台集群部署的集群,搭建方式请参考《ansible快速部署cassandra3集群》

准备cassandra的keyspace和表

先创建keyspace和table:

  1. cqlsh登录cassandra:
  1. cqlsh 192.168.133.168
  1. 创建keyspace(3副本):
  1. CREATE KEYSPACE IF NOT EXISTS example
  2. WITH replication = {'class': 'SimpleStrategy', 'replication_factor': '3'};
  1. 建表:
  1. CREATE TABLE IF NOT EXISTS example.wordcount (
  2. word text,
  3. count bigint,
  4. PRIMARY KEY(word)
  5. );

准备kafka的topic

  1. 启动kafka服务;
  2. 创建名为test001的topic,参考命令如下:
  1. ./kafka-topics.sh \
  2. --create \
  3. --bootstrap-server 127.0.0.1:9092 \
  4. --replication-factor 1 \
  5. --partitions 1 \
  6. --topic test001
  1. 进入发送消息的会话模式,参考命令如下:
  1. ./kafka-console-producer.sh \
  2. --broker-list kafka:9092 \
  3. --topic test001
  1. 在会话模式下,输入任意字符串然后回车,都会将字符串消息发送到broker;

源码下载

如果您不想写代码,整个系列的源码可在GitHub下载到,地址和链接信息如下表所示(https://github.com/zq2599/blog_demos):

名称 链接 备注
项目主页 https://github.com/zq2599/blog_demos 该项目在GitHub上的主页
git仓库地址(https) https://github.com/zq2599/blog_demos.git 该项目源码的仓库地址,https协议
git仓库地址(ssh) git@github.com:zq2599/blog_demos.git 该项目源码的仓库地址,ssh协议

这个git项目中有多个文件夹,本章的应用在flinksinkdemo文件夹下,如下图红框所示:

两种写入cassandra的方式

flink官方的connector支持两种方式写入cassandra:

  1. Tuple类型写入:将Tuple对象的字段对齐到指定的SQL的参数中;
  2. POJO类型写入:通过DataStax,将POJO对象对应到注解配置的表和字段中;

接下来分别使用这两种方式;

开发(Tuple写入)

  1. 《Flink的sink实战之二:kafka》中创建了flinksinkdemo工程,在此继续使用;
  2. 在pom.xml中增加casandra的connector依赖:
  1. <dependency>
  2. <groupId>org.apache.flink</groupId>
  3. <artifactId>flink-connector-cassandra_2.11</artifactId>
  4. <version>1.10.0</version>
  5. </dependency>
  1. 另外还要添加flink-streaming-scala依赖,否则编译CassandraSink.addSink这段代码会失败:
  1. <dependency>
  2. <groupId>org.apache.flink</groupId>
  3. <artifactId>flink-streaming-scala_${scala.binary.version}</artifactId>
  4. <version>${flink.version}</version>
  5. <scope>provided</scope>
  6. </dependency>
  1. 新增CassandraTuple2Sink.java,这就是Job类,里面从kafka获取字符串消息,然后转成Tuple2类型的数据集写入cassandra,写入的关键点是Tuple内容和指定SQL中的参数的匹配:
  1. package com.bolingcavalry.addsink;
  2. import org.apache.flink.api.common.functions.FlatMapFunction;
  3. import org.apache.flink.api.common.serialization.SimpleStringSchema;
  4. import org.apache.flink.api.java.tuple.Tuple2;
  5. import org.apache.flink.streaming.api.datastream.DataStream;
  6. import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
  7. import org.apache.flink.streaming.api.functions.sink.PrintSinkFunction;
  8. import org.apache.flink.streaming.api.windowing.time.Time;
  9. import org.apache.flink.streaming.connectors.cassandra.CassandraSink;
  10. import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer;
  11. import org.apache.flink.util.Collector;
  12. import java.util.Properties;
  13. public class CassandraTuple2Sink {
  14. public static void main(String[] args) throws Exception {
  15. final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
  16. //设置并行度
  17. env.setParallelism(1);
  18. //连接kafka用到的属性对象
  19. Properties properties = new Properties();
  20. //broker地址
  21. properties.setProperty("bootstrap.servers", "192.168.50.43:9092");
  22. //zookeeper地址
  23. properties.setProperty("zookeeper.connect", "192.168.50.43:2181");
  24. //消费者的groupId
  25. properties.setProperty("group.id", "flink-connector");
  26. //实例化Consumer类
  27. FlinkKafkaConsumer<String> flinkKafkaConsumer = new FlinkKafkaConsumer<>(
  28. "test001",
  29. new SimpleStringSchema(),
  30. properties
  31. );
  32. //指定从最新位置开始消费,相当于放弃历史消息
  33. flinkKafkaConsumer.setStartFromLatest();
  34. //通过addSource方法得到DataSource
  35. DataStream<String> dataStream = env.addSource(flinkKafkaConsumer);
  36. DataStream<Tuple2<String, Long>> result = dataStream
  37. .flatMap(new FlatMapFunction<String, Tuple2<String, Long>>() {
  38. @Override
  39. public void flatMap(String value, Collector<Tuple2<String, Long>> out) {
  40. String[] words = value.toLowerCase().split("\\s");
  41. for (String word : words) {
  42. //cassandra的表中,每个word都是主键,因此不能为空
  43. if (!word.isEmpty()) {
  44. out.collect(new Tuple2<String, Long>(word, 1L));
  45. }
  46. }
  47. }
  48. }
  49. )
  50. .keyBy(0)
  51. .timeWindow(Time.seconds(5))
  52. .sum(1);
  53. result.addSink(new PrintSinkFunction<>())
  54. .name("print Sink")
  55. .disableChaining();
  56. CassandraSink.addSink(result)
  57. .setQuery("INSERT INTO example.wordcount(word, count) values (?, ?);")
  58. .setHost("192.168.133.168")
  59. .build()
  60. .name("cassandra Sink")
  61. .disableChaining();
  62. env.execute("kafka-2.4 source, cassandra-3.11.6 sink, tuple2");
  63. }
  64. }
  1. 上述代码中,从kafka取得数据,做了word count处理后写入到cassandra,注意addSink方法后的一连串API(包含了数据库连接的参数),这是flink官方推荐的操作,另外为了在Flink web UI看清楚DAG情况,这里调用disableChaining方法取消了operator chain,生产环境中这一行可以去掉;
  2. 编码完成后,执行mvn clean package -U -DskipTests构建,在target目录得到文件flinksinkdemo-1.0-SNAPSHOT.jar;
  3. 在Flink的web UI上传flinksinkdemo-1.0-SNAPSHOT.jar,并指定执行类,如下图红框所示:

  4. 启动任务后DAG如下:

  5. 去前面创建的发送kafka消息的会话模式窗口,发送一个字符串"aaa bbb ccc aaa aaa aaa";
  6. 查看cassandra数据,发现已经新增了三条记录,内容符合预期:

  7. 查看TaskManager控制台输出,里面有Tuple2数据集的打印结果,和cassandra的一致:

  8. DAG上所有SubTask的记录数也符合预期:

开发(POJO写入)

接下来尝试POJO写入,即业务逻辑中的数据结构实例被写入cassandra,无需指定SQL:

  1. 实现POJO写入数据库,需要datastax库的支持,在pom.xml中增加以下依赖:
  1. <dependency>
  2. <groupId>com.datastax.cassandra</groupId>
  3. <artifactId>cassandra-driver-core</artifactId>
  4. <version>3.1.4</version>
  5. <classifier>shaded</classifier>
  6. <!-- Because the shaded JAR uses the original POM, you still need
  7. to exclude this dependency explicitly: -->
  8. <exclusions>
  9. <exclusion>
  10. <groupId>io.netty</groupId>
  11. <artifactId>*</artifactId>
  12. </exclusion>
  13. </exclusions>
  14. </dependency>
  1. 请注意上面配置的exclusions节点,依赖datastax的时候,按照官方指导对netty相关的间接依赖做排除,官方地址:https://docs.datastax.com/en/developer/java-driver/3.1/manual/shaded_jar/
  2. 创建带有数据库相关注解的实体类WordCount:
  1. package com.bolingcavalry.addsink;
  2. import com.datastax.driver.mapping.annotations.Column;
  3. import com.datastax.driver.mapping.annotations.Table;
  4. @Table(keyspace = "example", name = "wordcount")
  5. public class WordCount {
  6. @Column(name = "word")
  7. private String word = "";
  8. @Column(name = "count")
  9. private long count = 0;
  10. public WordCount() {
  11. }
  12. public WordCount(String word, long count) {
  13. this.setWord(word);
  14. this.setCount(count);
  15. }
  16. public String getWord() {
  17. return word;
  18. }
  19. public void setWord(String word) {
  20. this.word = word;
  21. }
  22. public long getCount() {
  23. return count;
  24. }
  25. public void setCount(long count) {
  26. this.count = count;
  27. }
  28. @Override
  29. public String toString() {
  30. return getWord() + " : " + getCount();
  31. }
  32. }
  1. 然后创建任务类CassandraPojoSink:
  1. package com.bolingcavalry.addsink;
  2. import com.datastax.driver.mapping.Mapper;
  3. import com.datastax.shaded.netty.util.Recycler;
  4. import org.apache.flink.api.common.functions.FlatMapFunction;
  5. import org.apache.flink.api.common.functions.ReduceFunction;
  6. import org.apache.flink.api.common.serialization.SimpleStringSchema;
  7. import org.apache.flink.api.java.tuple.Tuple2;
  8. import org.apache.flink.streaming.api.datastream.DataStream;
  9. import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
  10. import org.apache.flink.streaming.api.functions.sink.PrintSinkFunction;
  11. import org.apache.flink.streaming.api.windowing.time.Time;
  12. import org.apache.flink.streaming.connectors.cassandra.CassandraSink;
  13. import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer;
  14. import org.apache.flink.util.Collector;
  15. import java.util.Properties;
  16. public class CassandraPojoSink {
  17. public static void main(String[] args) throws Exception {
  18. final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
  19. //设置并行度
  20. env.setParallelism(1);
  21. //连接kafka用到的属性对象
  22. Properties properties = new Properties();
  23. //broker地址
  24. properties.setProperty("bootstrap.servers", "192.168.50.43:9092");
  25. //zookeeper地址
  26. properties.setProperty("zookeeper.connect", "192.168.50.43:2181");
  27. //消费者的groupId
  28. properties.setProperty("group.id", "flink-connector");
  29. //实例化Consumer类
  30. FlinkKafkaConsumer<String> flinkKafkaConsumer = new FlinkKafkaConsumer<>(
  31. "test001",
  32. new SimpleStringSchema(),
  33. properties
  34. );
  35. //指定从最新位置开始消费,相当于放弃历史消息
  36. flinkKafkaConsumer.setStartFromLatest();
  37. //通过addSource方法得到DataSource
  38. DataStream<String> dataStream = env.addSource(flinkKafkaConsumer);
  39. DataStream<WordCount> result = dataStream
  40. .flatMap(new FlatMapFunction<String, WordCount>() {
  41. @Override
  42. public void flatMap(String s, Collector<WordCount> collector) throws Exception {
  43. String[] words = s.toLowerCase().split("\\s");
  44. for (String word : words) {
  45. if (!word.isEmpty()) {
  46. //cassandra的表中,每个word都是主键,因此不能为空
  47. collector.collect(new WordCount(word, 1L));
  48. }
  49. }
  50. }
  51. })
  52. .keyBy("word")
  53. .timeWindow(Time.seconds(5))
  54. .reduce(new ReduceFunction<WordCount>() {
  55. @Override
  56. public WordCount reduce(WordCount wordCount, WordCount t1) throws Exception {
  57. return new WordCount(wordCount.getWord(), wordCount.getCount() + t1.getCount());
  58. }
  59. });
  60. result.addSink(new PrintSinkFunction<>())
  61. .name("print Sink")
  62. .disableChaining();
  63. CassandraSink.addSink(result)
  64. .setHost("192.168.133.168")
  65. .setMapperOptions(() -> new Mapper.Option[] { Mapper.Option.saveNullFields(true) })
  66. .build()
  67. .name("cassandra Sink")
  68. .disableChaining();
  69. env.execute("kafka-2.4 source, cassandra-3.11.6 sink, pojo");
  70. }
  71. }
  1. 从上述代码可见,和前面的Tuple写入类型有很大差别,为了准备好POJO类型的数据集,除了flatMap的匿名类入参要改写,还要写好reduce方法的匿名类入参,并且还要调用setMapperOptions设置映射规则;
  2. 编译构建后,上传jar到flink,并且指定任务类为CassandraPojoSink:

  3. 清理之前的数据,在cassandra的cqlsh上执行TRUNCATE example.wordcount;
  4. 像之前那样发送字符串消息到kafka:

  5. 查看数据库,发现结果符合预期:



10. DAG和SubTask情况如下:

至此,flink的结果数据写入cassandra的实战就完成了,希望能给您一些参考;

欢迎关注公众号:程序员欣宸

微信搜索「程序员欣宸」,我是欣宸,期待与您一同畅游Java世界...

https://github.com/zq2599/blog_demos

Flink的sink实战之三:cassandra3的更多相关文章

  1. Flink的sink实战之一:初探

    欢迎访问我的GitHub https://github.com/zq2599/blog_demos 内容:所有原创文章分类汇总及配套源码,涉及Java.Docker.Kubernetes.DevOPS ...

  2. Flink的sink实战之二:kafka

    欢迎访问我的GitHub https://github.com/zq2599/blog_demos 内容:所有原创文章分类汇总及配套源码,涉及Java.Docker.Kubernetes.DevOPS ...

  3. Flink的sink实战之四:自定义

    欢迎访问我的GitHub https://github.com/zq2599/blog_demos 内容:所有原创文章分类汇总及配套源码,涉及Java.Docker.Kubernetes.DevOPS ...

  4. Flink处理函数实战之三:KeyedProcessFunction类

    欢迎访问我的GitHub https://github.com/zq2599/blog_demos 内容:所有原创文章分类汇总及配套源码,涉及Java.Docker.Kubernetes.DevOPS ...

  5. Flink处理函数实战之五:CoProcessFunction(双流处理)

    欢迎访问我的GitHub https://github.com/zq2599/blog_demos 内容:所有原创文章分类汇总及配套源码,涉及Java.Docker.Kubernetes.DevOPS ...

  6. Flink on Yarn三部曲之三:提交Flink任务

    欢迎访问我的GitHub https://github.com/zq2599/blog_demos 内容:所有原创文章分类汇总及配套源码,涉及Java.Docker.Kubernetes.DevOPS ...

  7. Flink的DataSource三部曲之三:自定义

    欢迎访问我的GitHub https://github.com/zq2599/blog_demos 内容:所有原创文章分类汇总及配套源码,涉及Java.Docker.Kubernetes.DevOPS ...

  8. [原创].NET 分布式架构开发实战之三 数据访问深入一点的思考

    原文:[原创].NET 分布式架构开发实战之三 数据访问深入一点的思考 .NET 分布式架构开发实战之三 数据访问深入一点的思考 前言:首先,感谢园子里的朋友对文章的支持,感谢大家,希望本系列的文章能 ...

  9. [Java聊天室server]实战之三 接收循环

    前言 学习不论什么一个稍有难度的技术,要对其有充分理性的分析,之后果断做出决定---->也就是人们常说的"多谋善断":本系列尽管涉及的是socket相关的知识.但学习之前,更 ...

随机推荐

  1. DES加解密算法(C语言实现)

    DES加密和解密算法的实现(C语言) 主要是做个记录,害怕以后代码丢了,先放到这里了. DES再不进行介绍了,可以看上一篇的 DES 的python实现 转载请注明出处:https://www.cnb ...

  2. TP5本地运行正常,线上运行某页面出现【模板文件不存在】问题的解决办法

    相信许多小伙伴和我一样,明明在本地运行页面一切正常,而到线上(本人是用的虚拟主机)出现了如下图的问题: 其实这个问题出现的原因很简单,就是我们开发是在windows 系统下,windows系统对大小写 ...

  3. docker: Error response from daemon: Get https://registry-1.docker.io/v2/: net/http: request canceled

    故障描述: [root@docker01 ~]# docker run centos docker: Error response from daemon: Get https://registry- ...

  4. ORA-00019: maximum number of session licenses exceeded 超出最大会话许可数

    ORA-00019: maximum number of session licenses exceededORA-00019: 超出最大会话许可数 Cause:       All licenses ...

  5. 转一个veth的文章

    这篇写的很好,清晰明白,保存一下https://www.cnblogs.com/bakari/p/10613710.html

  6. 界面酷炫,功能强大!这款 Linux 性能实时监控工具超好用!

    对于维护.管理Linux系统来说,它的性能监控非常重要,特别是实时监控数据,这个数据有利于我们判断服务器的负载压力,及时调整资源调配,也有助于更好的服务于业务.所以,今天民工哥给大家安利一款 Linu ...

  7. C++里面类和对象是什么意思?

    本文章向大家介绍C++类和对象到底是什么意思?,主要包括C++类和对象到底是什么意思?使用实例.应用技巧.基本知识点总结和需要注意事项,具有一定的参考价值,需要的朋友可以参考一下.   C++ 是一门 ...

  8. 【UR #13】Yist

    UOJ小清新题表 题目摘要 UOJ链接 给出一个排列 \(A\) 以及它的一个非空子序列 \(B\),给出一个 \(x\) 并进行若干次操作,每一次操作需要在 \(A\) 中选择一个长度恰好为 \(x ...

  9. docker-搭建 kafka+zookeeper集群

    拉取容器           docker pull wurstmeister/zookeeper           docker pull wurstmeister/kafka     这里演示使 ...

  10. 一文读懂MySQL的事务隔离级别及MVCC机制

    回顾前文: 一文学会MySQL的explain工具 一文读懂MySQL的索引结构及查询优化 (同时再次强调,这几篇关于MySQL的探究都是基于5.7版本,相关总结与结论不一定适用于其他版本) 就软件开 ...