Kafka 生产者和消费者入门代码基础
这篇博文讲解Kafka 的生产者和消费者实例。
基础版本一
生产者
ProducerFastStart.java
package com.xingyun.tutorial_1; import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerRecord; import java.util.Properties; public class ProducerFastStart { public static final String brokerList="192.168.10.137:9092"; // public static final String topic="topic-demo";
public static final String topic="ODS-PSR-P.*"; public static void main(String args[]){ //配置生产者客户端参数
//将配置序列化
Properties properties=new Properties();
properties.put("key.serializer","org.apache.kafka.common.serialization.StringSerializer");
properties.put("value.serializer","org.apache.kafka.common.serialization.StringSerializer");
properties.put("bootstrap.servers",brokerList); //创建KafkaProducer 实例
KafkaProducer<String,String> producer=new KafkaProducer<String, String>(properties); //构建待发送的消息
ProducerRecord<String,String> record=new ProducerRecord<String, String>(topic,"hello Kafka!");
try {
//尝试发送消息
producer.send(record);
//打印发送成功
System.out.println("send success from producer");
} catch (Exception e) {
e.printStackTrace();
}finally {
//关闭生产者客户端实例
producer.close();
}
}
}
消费者
ConsumerFastStart.java
package com.xingyun.tutorial_1; import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer; import java.time.Duration;
import java.util.Collections;
import java.util.Properties; public class ConsumerFastStart { // public static final String brokerList="192.168.10.137:9092";
public static final String brokerList="10.221.148.217:9092 ,10.221.148.217:9093 ,10.221.148.217:9094"; // public static final String topic="topic-demo";
public static final String topic="ODS-PSR-P.*"; public static final String groupId="group.demo"; public static void main(String args[]){ //设置消费组的名称
//将属性值反序列化
Properties properties=new Properties();
properties.put("key.deserializer","org.apache.kafka.common.serialization.StringDeserializer");
properties.put("value.deserializer","org.apache.kafka.common.serialization.StringDeserializer");
properties.put("bootstrap.servers",brokerList);
properties.put("group.id",groupId); //创建一个消费者客户端实例
KafkaConsumer<String,String> consumer=new KafkaConsumer<>(properties); //订阅主题
consumer.subscribe(Collections.singletonList(topic)); //循环消费消息
while (true){
ConsumerRecords<String,String> records=consumer.poll(Duration.ofMillis(1000));
for (ConsumerRecord<String,String> record:records){
System.out.println("receiver a message from consumer client:"+record.value());
}
}
}
}
升级版本一:
生产者
KafkaProducerAnalysis.java
package com.xingyun.tutorial_2; import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.common.serialization.StringSerializer; import java.util.Properties; public class KafkaProducerAnalysis { public static final String brokerList="192.168.10.137:9092"; public static final String topic="topic-demo"; public static void main(String args[]){ //配置生产者客户端参数
Properties properties=initConfig(); //创建相应的生产者实例
KafkaProducer<String,String> producer=new KafkaProducer<>(properties); //构建待发送的消息 topic 和value 是必填项
ProducerRecord<String,String> record=new ProducerRecord<>(topic,"hello,Kafka!"); try {
//发送消息
producer.send(record);
} catch (Exception e) {
e.printStackTrace();
}finally {
//关闭生产者实例
producer.close();
} } /**
* 配置生产者客户端参数
* */
private static Properties initConfig() {
Properties properties=new Properties();
// properties.put("bootstrap.servers",brokerList);
properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,brokerList);
// properties.put("key.serializer","org.apache.kafka.common.serialization.StringSerializer");
properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
//properties.put("value.serializer","org.apache.kafka.common.serialization.StringSerializer");
properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());
//properties.put("client.id","producer.client.id.demo");//指定客户端ID
properties.put(ProducerConfig.CLIENT_ID_CONFIG,"producer.client.id.demo");//指定客户端ID
return properties;
} }
消费者
KafkaConsumerAnalysis.java
package com.xingyun.tutorial_2; import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.common.serialization.Deserializer; import java.time.Duration;
import java.util.Arrays;
import java.util.Properties;
import java.util.concurrent.atomic.AtomicBoolean; public class KafkaConsumerAnalysis { public static final String brokerList="";
public static final String topic="topic-demo";
public static final String groupId="group.demo"; public static final AtomicBoolean isRunning=new AtomicBoolean(true); public static void main(String[] args){ //配置消费者客户端参数
Properties properties=initConfig(); //创建相应的消费者实例
KafkaConsumer<String,String> consumer=new KafkaConsumer<>(properties); //订阅主题
consumer.subscribe(Arrays.asList(topic)); try {
//拉取消息并消费
while(isRunning.get()){ ConsumerRecords<String,String> records=consumer.poll(Duration.ofMillis(1000)); for (ConsumerRecord<String,String> record:records){ System.out.println("topic="+record.topic()+",partition="+record.partition()+",offset="+record.offset());
System.out.println("key="+record.key()+",value="+record.value());
//do something to processor record.
}
}
} catch (Exception e) {
e.printStackTrace();
}finally {
consumer.close();
}
} /**
* 配置消费者客户端参数
* */
private static Properties initConfig() {
Properties properties=new Properties(); // properties.put("key.deserializer","org.apache.kafka.common.serialization.Deserializer");
properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, Deserializer.class.getName()); // properties.put("value.deserializer","org.apache.kafka.common.serialization.Deserializer");
properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,Deserializer.class.getName()); //指定连接Kafka集群所需的broker地址清单,中间用逗号隔开,默认值为""
// properties.put("bootstrap.server",brokerList);
properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,brokerList); //消费者所属的消费组的名称,默认值为""
// properties.put("group.id",groupId);
properties.put(ConsumerConfig.GROUP_ID_CONFIG,groupId); // properties.put("client.id","consumer.client.id.demo");
//指定消费者客户端Id,如果不设置,则自动生成consumer-1,consumer-2
properties.put(ConsumerConfig.CLIENT_ID_CONFIG,"consumer.client.id.demo"); return properties;
}
}
Kafka 生产者和消费者入门代码基础的更多相关文章
- kafka生产者和消费者api的简单使用
kafka生产者和消费者api的简单使用 一.背景 二.需要实现的功能 1.生产者实现功能 1.KafkaProducer线程安全的,可以在多线程中使用. 2.消息发送的key和value的序列化 3 ...
- [Spark][kafka]kafka 生产者,消费者 互动例子
[Spark][kafka]kafka 生产者,消费者 互动例子 # pwd/usr/local/kafka_2.11-0.10.0.1/bin 创建topic:# ./kafka-topics.sh ...
- kafka生产者和消费者流程
前言 根据源码分析kafka java客户端的生产者和消费者的流程. 基于zookeeper的旧消费者 kafka消费者从消费数据到关闭经历的流程. 由于3个核心线程 基于zookeeper的连接器监 ...
- kafka-python开发kafka生产者和消费者
1.安装kafka-python 执行命令 pip install kafka-python kafka-python 1.4.6 2.编写python kafka 生产者消费者代码 # ...
- kafka学习(三)kafka生产者,消费者详解
文章更新时间:2020/06/14 一.生产者 当我们发送消息之前,先问几个问题:每条消息都是很关键且不能容忍丢失么?偶尔重复消息可以么?我们关注的是消息延迟还是写入消息的吞吐量? 举个例子,有一个信 ...
- Kafka 生产者、消费者与分区的关系
背景 最近和海康整数据对接, 需要将海康产生的结构化数据拿过来做二次识别. 基本的流程: 海康大数据 --> kafka server --> 平台 Kafka 的 topic 正常过车 ...
- kafka生产者和消费者
在使用kafka时,有时候为验证应用程序,需要手动读取消息或者手动生成消息.这个时候可以借助kafka-console-consumer.sh和kafka-console-producer.sh 这两 ...
- springboot配置kafka生产者和消费者详解
在原有pom.xml依赖下新添加一下kafka依赖ar包 <!--kafka--> <dependency> <groupId>org.springframewor ...
- kafka生产者、消费者java示例
1. 生产者 import java.util.Properties; import kafka.javaapi.producer.Producer; import kafka.producer.Ke ...
随机推荐
- 大数据技术 - MapReduce的Combiner介绍
本章来简单介绍下 Hadoop MapReduce 中的 Combiner.Combiner 是为了聚合数据而出现的,那为什么要聚合数据呢?因为我们知道 Shuffle 过程是消耗网络IO 和 磁盘I ...
- Linux 中 Windows 中文乱码
Linux 下 Windows 源代码中文乱码 由于 windows 和 linux 对文本的编码方式不同,所以经常会有 windows 中生成的文本在 linux 中打开乱码的情况. 比如: 我面临 ...
- SpringBoot使用事务
事务是很多项目中需要注意的东西,有些场景如果没有加事务控制就会导致一些脏数据进入数据库,本文简单介绍SpringBoot怎样使用事务. 本文使用的是之前整合JPA的文章,具体可以参考 传送门. 无论是 ...
- 自己总结的C#编码规范--5.如何写好注释篇
本文是读完前言中提到的几本书后,结合自身的想法总结出来的如何写好注释的一些比较实用的方法. 另外本文是上一篇 注释篇 的一个补充 如何写好注释 避免使用不明确的代词 有些情况下,"it&qu ...
- webpack打包之无依赖模块
一.入口文件main.js // main.js console.log('webpack'); 二.出口文件bundle.js 1.浏览代码 2.本质 // 实际就是一个自执行函数 (functio ...
- PPT设计宝典!十招教你做出拿手的PPT
据说上班用 excel 的比 word 的工资高,用 ppt 的比用 excel 的工资高.无论如何,在职场演讲汇报中,PPT 扮演着至关重要的角色. 在本文我们将用 10 个超级技巧来解决糟糕的演 ...
- BZOJ.4515.[SDOI2016]游戏(树链剖分 李超线段树)
BZOJ 洛谷 每次在路径上加的数是个一次函数,容易看出是树剖+李超线段树维护函数最小值.所以其实依旧是模板题. 横坐标自然是取个确定的距离标准.取每个点到根节点的距离\(dis[i]\)作为\(i\ ...
- php 压缩文件 zip
<?php class PHPZip { private $ctrl_dir = array(); private $datasec = ...
- 浅析webpack使用方法
webpack是一个网页模块打包工具,可以将所有代码.图片.样式打包在一起,除此之外还有许多实用的功能.最近看了一个慕课学习了一下webpack的使用,在这里做一下总结. 本文不会涉及太多深入的知识, ...
- 基于WebSocket实现聊天室(Node)
基于WebSocket实现聊天室(Node) WebSocket是基于TCP的长连接通信协议,服务端可以主动向前端传递数据,相比比AJAX轮询服务器,WebSocket采用监听的方式,减轻了服务器压力 ...