上一节,我们实现了搭建kafka集群。本节我们将从0开始,使用Java,搭建kafka客户端生产消费模型。

1.创建maven项目2.kafka producer3.kafka consumer4.结果生产者:消费者:可能遇到的坑:最后:

1.创建maven项目

   首先我们使用idea创建项目。


  这里我们使用maven来管理jar包,所以创建的是一个maven项目。

  然后输入GroupId和ArtifactId即可,这两个id在maven中相当于“坐标”,其中ArtifactId是你的项目名。

  这时候,一个maven项目就创建完成了。但是maven还需要配置,我们在idea中找到Preferences(mac系统快捷键:command + ,),搜索maven,接着配置maven home directory(maven安装路径),User settings file(maven 配置文件所在位置 settings.xml), Local repository(本地仓库位置,在setting.xml中配置),配置完成后,点击APPLY即可。到此,一个maven项目就配置完成了。
  最后,我们需要在pom.xml中配置kafka依赖的坐标

1 <dependencies>
2    <dependency>
3        <groupId>org.apache.kafka</groupId>
4        <artifactId>kafka-clients</artifactId>
5        <version>0.11.0.3</version>
6    </dependency>
7</dependencies>

2.kafka producer

  接下来,我们要对kafka中的生产者进行开发。在开发之前,要保证我们kafka服务处于可用的状态。
  生产者程序如下:

 1public class Producer {
2    public static void main(String[] args) {
3        Properties props = new Properties();
4        props.put("bootstrap.servers", "localhost:9092,localhost:9093");
5        props.put("key.serializer",
6                "org.apache.kafka.common.serialization.StringSerializer");
7        props.put("value.serializer",
8                "org.apache.kafka.common.serialization.StringSerializer");
9        props.put("acks", "-1");
10        props.put("retries", 3);
11        props.put("batch.size", 232840);
12        props.put("linger.ms", 10);
13        props.put("buffer.memory", 33554432);
14        props.put("max.block.ms", 3000);
15        KafkaProducer<String, String> producer = new KafkaProducer<String, String>(props);
16        for (int i = 0; i < 100; i++) {
17            producer.send(new ProducerRecord<String, String>(
18                    "my-topic", Integer.toString(i), Integer.toString(i)), new Callback() {
19                public void onCompletion(RecordMetadata recordMetadata, Exception e) {
20                    if (e == null) {
21                        System.out.println("消息发送成功");
22                    } else {
23                        System.out.println(String.format("消息发送失败: %s", e.getMessage()));
24                    }
25                }
26            });
27        }
28        producer.close();
29    }
30}

3.kafka consumer

  接下来是kafka中的消费者代码。

 1public class Consumer {
2    public static void main(String[] args) {
3        String topicName = "my-topic";
4        String groupId = "test-group";
5
6        Properties props = new Properties();
7        props.put("bootstrap.servers", "localhost:9092,localhost:9093");
8        props.put("group.id", groupId);
9        props.put("enable.auto.commit", "true");
10        props.put("auto.commit.interval.ms", "1000");
11        props.put("auto.offset.reset", "earliest");
12        props.put("key.deserializer",
13                "org.apache.kafka.common.serialization.StringDeserializer");
14        props.put("value.deserializer",
15                "org.apache.kafka.common.serialization.StringDeserializer");
16        KafkaConsumer<String, String> consumer = new KafkaConsumer<String, String>(props);
17        // 订阅主题
18        consumer.subscribe(Collections.singletonList(topicName));
19        try {
20            while (true) {
21                ConsumerRecords<String, String> records = consumer.poll(1000);
22                for (ConsumerRecord<String, String> record : records) {
23                    System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), record.key(), record.value());
24                }
25            }
26        } finally {
27            consumer.close();
28        }
29    }
30}

4.结果

  最后是对代码进行测试。依次启动生产者、消费者实例,观察控制台输出接口。

生产者:

1消息发送成功
2...
3消息发送成功

消费者:

1offset = 0, key = 0, value = 0
2...
3offset = 99, key = 99, value = 99

可能遇到的坑:

  如果你的程序出错,请首先检查代码props是否正确,其次应该确认你的kafka client和kafka server 版本相同,最后bootstrap.servers这个参数的配置值,要与kafka中server.properties中一致,否则将会出现获取不到元数据信息的异常。(消息发送失败: Failed to update metadata after 3000 ms.)

最后:

  上述代码,只是实现了一个最小的生产消费模型,写法上并不规范(比如配置应该写在配置文件中、对于异常应该有处理方法,不能只是输出日志),不能直接使用在生产环境中。只能用于kafka入门学习

  最后,期待您的订阅和点赞,专栏每周都会更新,希望可以和您一起进步,同时也期待您的批评与指正!

从0开始搭建kafka客户端的更多相关文章

  1. oauth2.0服务端与客户端搭建

    oauth2.0服务端与客户端搭建 - 推酷 今天搭建了oauth2.0服务端与客户端.把搭建的过程记录一下.具体实现的功能是:client.ruanwenwu.cn的用户能够通过 server.ru ...

  2. K8S 搭建 Kafka:2.13-2.6.0 和 Zookeeper:3.6.2 集群

    搭建 Kafka:2.13-2.6.0 和 Zookeeper:3.6.2 集群 一.服务版本信息: Kafka:v2.13-2.6.0 Zookeeper:v3.6.2 Kubernetes:v1. ...

  3. 【原创】Windows平台搭建Kafka源代码开发环境(Eclipse版本)

    最近在研究Kafka源代码,需要自己搭建一个开发环境.官网上给出的提示略显简单,照着做了一遍也碰到了一些问题.特此记录下来. 开发环境: Oracle Java 1.7_u71 + Eclipse 4 ...

  4. centos7搭建kafka集群-第二篇

    好了,本篇开始部署kafka集群 Zookeeper集群搭建 注:Kafka集群是把状态保存在Zookeeper中的,首先要搭建Zookeeper集群(也可以用kafka自带的ZK,但不推荐) 1.软 ...

  5. docker容器中搭建kafka集群环境

    Kafka集群管理.状态保存是通过zookeeper实现,所以先要搭建zookeeper集群 zookeeper集群搭建 一.软件环境: zookeeper集群需要超过半数的的node存活才能对外服务 ...

  6. 利用新版本自带的Zookeeper搭建kafka集群

    安装简要说明新版本的kafka自带有zookeeper,其实自带的zookeeper完全够用,本篇文章以记录使用自带zookeeper搭建kafka集群.1.关于kafka下载kafka下载页面:ht ...

  7. 从0开始搭建SQL Server AlwaysOn 第一篇(配置域控)

    从0开始搭建SQL Server AlwaysOn 第一篇(配置域控) 第一篇http://www.cnblogs.com/lyhabc/p/4678330.html第二篇http://www.cnb ...

  8. 从0开始搭建SQL Server AlwaysOn 第二篇(配置故障转移集群)

    从0开始搭建SQL Server AlwaysOn 第二篇(配置故障转移集群) 第一篇http://www.cnblogs.com/lyhabc/p/4678330.html第二篇http://www ...

  9. 从0开始搭建SQL Server AlwaysOn 第三篇(配置AlwaysOn)

    从0开始搭建SQL Server AlwaysOn 第三篇(配置AlwaysOn) 第一篇http://www.cnblogs.com/lyhabc/p/4678330.html第二篇http://w ...

随机推荐

  1. xmemcached过期时间

    最近项目中使用到了Memcached,而客户端选择了XMemcached ,在设置过期时间时,因对Memcached 不熟悉,将expire 设置为1000000000,本意表示尽量长的时间不要过期, ...

  2. git理论知识

    1.Git 有三种状态,你的文件可能处于其中之一:已提交(committed).已修改(modified)和已暂存(staged) 由此引入 Git 项目的三个工作区域的概念:Git 仓库.工作目录以 ...

  3. Zabbix 监控sqlserver

    转:Zabbix 监控sqlserver 一:Zabbix监控sqlserver 方法一: 1.思路整理 1.在zabbix server上安装Freetds.unixODBC.unixODBC-de ...

  4. 安装python第三方包

    20190822 先说一下,有4种方法(我知道的): 1.源码安装 2.python自带包管理器安装 3.外部包管理器安装 4.whl格式安装 1.源码安装 Python第三方库几乎都可以在githu ...

  5. scala slick mysql 字段过多 tuple问题

    原同步服务正常,因需,对方单表新增字段,超过22条 sbt assembly 编译出错 too many elements for tuple: 26, allowed: 22 scala case ...

  6. Sampling Distribution of the Sample Mean|Central Limit Theorem

    7.3 The Sampling Distribution of the Sample Mean population:1000:Scale are normally distributed with ...

  7. 图形学创世纪——写在SIGGRAPH 40年的边上

    40年的边上" title="图形学创世纪--写在SIGGRAPH 40年的边上"> 前言: SIGGRAPH是由ACM SIGGRAPH(美国计算机协会计算机图形 ...

  8. linux下添加行数和修改tab空格数

    在/etc/vimrc文件中添加: set nu set ts=4 保存即可

  9. JsonPath入门教程

    有时候需要从json里面提取相关数据,必须得用到如何提取信息的知识,下面来写一下 语法格式 JsonPath 描述 $ 根节点 @ 当前节点 .or[] 子节点 .. 选择所有符合条件的节点 * 所有 ...

  10. [LC] 232. Implement Queue using Stacks

    Implement the following operations of a queue using stacks. push(x) -- Push element x to the back of ...