Kafka 生产者和消费者入门代码基础
这篇博文讲解Kafka 的生产者和消费者实例。
基础版本一
生产者
ProducerFastStart.java
package com.xingyun.tutorial_1; import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerRecord; import java.util.Properties; public class ProducerFastStart { public static final String brokerList="192.168.10.137:9092"; // public static final String topic="topic-demo";
public static final String topic="ODS-PSR-P.*"; public static void main(String args[]){ //配置生产者客户端参数
//将配置序列化
Properties properties=new Properties();
properties.put("key.serializer","org.apache.kafka.common.serialization.StringSerializer");
properties.put("value.serializer","org.apache.kafka.common.serialization.StringSerializer");
properties.put("bootstrap.servers",brokerList); //创建KafkaProducer 实例
KafkaProducer<String,String> producer=new KafkaProducer<String, String>(properties); //构建待发送的消息
ProducerRecord<String,String> record=new ProducerRecord<String, String>(topic,"hello Kafka!");
try {
//尝试发送消息
producer.send(record);
//打印发送成功
System.out.println("send success from producer");
} catch (Exception e) {
e.printStackTrace();
}finally {
//关闭生产者客户端实例
producer.close();
}
}
}
消费者
ConsumerFastStart.java
package com.xingyun.tutorial_1; import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer; import java.time.Duration;
import java.util.Collections;
import java.util.Properties; public class ConsumerFastStart { // public static final String brokerList="192.168.10.137:9092";
public static final String brokerList="10.221.148.217:9092 ,10.221.148.217:9093 ,10.221.148.217:9094"; // public static final String topic="topic-demo";
public static final String topic="ODS-PSR-P.*"; public static final String groupId="group.demo"; public static void main(String args[]){ //设置消费组的名称
//将属性值反序列化
Properties properties=new Properties();
properties.put("key.deserializer","org.apache.kafka.common.serialization.StringDeserializer");
properties.put("value.deserializer","org.apache.kafka.common.serialization.StringDeserializer");
properties.put("bootstrap.servers",brokerList);
properties.put("group.id",groupId); //创建一个消费者客户端实例
KafkaConsumer<String,String> consumer=new KafkaConsumer<>(properties); //订阅主题
consumer.subscribe(Collections.singletonList(topic)); //循环消费消息
while (true){
ConsumerRecords<String,String> records=consumer.poll(Duration.ofMillis(1000));
for (ConsumerRecord<String,String> record:records){
System.out.println("receiver a message from consumer client:"+record.value());
}
}
}
}
升级版本一:
生产者
KafkaProducerAnalysis.java
package com.xingyun.tutorial_2; import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.common.serialization.StringSerializer; import java.util.Properties; public class KafkaProducerAnalysis { public static final String brokerList="192.168.10.137:9092"; public static final String topic="topic-demo"; public static void main(String args[]){ //配置生产者客户端参数
Properties properties=initConfig(); //创建相应的生产者实例
KafkaProducer<String,String> producer=new KafkaProducer<>(properties); //构建待发送的消息 topic 和value 是必填项
ProducerRecord<String,String> record=new ProducerRecord<>(topic,"hello,Kafka!"); try {
//发送消息
producer.send(record);
} catch (Exception e) {
e.printStackTrace();
}finally {
//关闭生产者实例
producer.close();
} } /**
* 配置生产者客户端参数
* */
private static Properties initConfig() {
Properties properties=new Properties();
// properties.put("bootstrap.servers",brokerList);
properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,brokerList);
// properties.put("key.serializer","org.apache.kafka.common.serialization.StringSerializer");
properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
//properties.put("value.serializer","org.apache.kafka.common.serialization.StringSerializer");
properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());
//properties.put("client.id","producer.client.id.demo");//指定客户端ID
properties.put(ProducerConfig.CLIENT_ID_CONFIG,"producer.client.id.demo");//指定客户端ID
return properties;
} }
消费者
KafkaConsumerAnalysis.java
package com.xingyun.tutorial_2; import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.common.serialization.Deserializer; import java.time.Duration;
import java.util.Arrays;
import java.util.Properties;
import java.util.concurrent.atomic.AtomicBoolean; public class KafkaConsumerAnalysis { public static final String brokerList="";
public static final String topic="topic-demo";
public static final String groupId="group.demo"; public static final AtomicBoolean isRunning=new AtomicBoolean(true); public static void main(String[] args){ //配置消费者客户端参数
Properties properties=initConfig(); //创建相应的消费者实例
KafkaConsumer<String,String> consumer=new KafkaConsumer<>(properties); //订阅主题
consumer.subscribe(Arrays.asList(topic)); try {
//拉取消息并消费
while(isRunning.get()){ ConsumerRecords<String,String> records=consumer.poll(Duration.ofMillis(1000)); for (ConsumerRecord<String,String> record:records){ System.out.println("topic="+record.topic()+",partition="+record.partition()+",offset="+record.offset());
System.out.println("key="+record.key()+",value="+record.value());
//do something to processor record.
}
}
} catch (Exception e) {
e.printStackTrace();
}finally {
consumer.close();
}
} /**
* 配置消费者客户端参数
* */
private static Properties initConfig() {
Properties properties=new Properties(); // properties.put("key.deserializer","org.apache.kafka.common.serialization.Deserializer");
properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, Deserializer.class.getName()); // properties.put("value.deserializer","org.apache.kafka.common.serialization.Deserializer");
properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,Deserializer.class.getName()); //指定连接Kafka集群所需的broker地址清单,中间用逗号隔开,默认值为""
// properties.put("bootstrap.server",brokerList);
properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,brokerList); //消费者所属的消费组的名称,默认值为""
// properties.put("group.id",groupId);
properties.put(ConsumerConfig.GROUP_ID_CONFIG,groupId); // properties.put("client.id","consumer.client.id.demo");
//指定消费者客户端Id,如果不设置,则自动生成consumer-1,consumer-2
properties.put(ConsumerConfig.CLIENT_ID_CONFIG,"consumer.client.id.demo"); return properties;
}
}
Kafka 生产者和消费者入门代码基础的更多相关文章
- kafka生产者和消费者api的简单使用
kafka生产者和消费者api的简单使用 一.背景 二.需要实现的功能 1.生产者实现功能 1.KafkaProducer线程安全的,可以在多线程中使用. 2.消息发送的key和value的序列化 3 ...
- [Spark][kafka]kafka 生产者,消费者 互动例子
[Spark][kafka]kafka 生产者,消费者 互动例子 # pwd/usr/local/kafka_2.11-0.10.0.1/bin 创建topic:# ./kafka-topics.sh ...
- kafka生产者和消费者流程
前言 根据源码分析kafka java客户端的生产者和消费者的流程. 基于zookeeper的旧消费者 kafka消费者从消费数据到关闭经历的流程. 由于3个核心线程 基于zookeeper的连接器监 ...
- kafka-python开发kafka生产者和消费者
1.安装kafka-python 执行命令 pip install kafka-python kafka-python 1.4.6 2.编写python kafka 生产者消费者代码 # ...
- kafka学习(三)kafka生产者,消费者详解
文章更新时间:2020/06/14 一.生产者 当我们发送消息之前,先问几个问题:每条消息都是很关键且不能容忍丢失么?偶尔重复消息可以么?我们关注的是消息延迟还是写入消息的吞吐量? 举个例子,有一个信 ...
- Kafka 生产者、消费者与分区的关系
背景 最近和海康整数据对接, 需要将海康产生的结构化数据拿过来做二次识别. 基本的流程: 海康大数据 --> kafka server --> 平台 Kafka 的 topic 正常过车 ...
- kafka生产者和消费者
在使用kafka时,有时候为验证应用程序,需要手动读取消息或者手动生成消息.这个时候可以借助kafka-console-consumer.sh和kafka-console-producer.sh 这两 ...
- springboot配置kafka生产者和消费者详解
在原有pom.xml依赖下新添加一下kafka依赖ar包 <!--kafka--> <dependency> <groupId>org.springframewor ...
- kafka生产者、消费者java示例
1. 生产者 import java.util.Properties; import kafka.javaapi.producer.Producer; import kafka.producer.Ke ...
随机推荐
- SpringBoot+Jpa+MySql学习
上一篇介绍了springboot简单整合mybatis的教程.这一篇是介绍springboot简单整合jpa的教程. 由于jpa的功能强大,后续会继续写关于jpa的介绍已经使用,本文只是简单介绍一下它 ...
- SPOJ.TLE - Time Limit Exceeded(DP 高维前缀和)
题目链接 \(Description\) 给定长为\(n\)的数组\(c_i\)和\(m\),求长为\(n\)的序列\(a_i\)个数,满足:\(c_i\not\mid a_i,\quad a_i\& ...
- Java并发编程(六)-- 同步块
上一节已经讲到,使用Synchronzied代码块可以解决共享对象的竞争问题,其实还有其他的方法也可以避免资源竞争问题,我统称他们为Java同步块.Java 同步块(synchronized bloc ...
- 潭州课堂25班:Ph201805201 第一课:环境搭建 (课堂笔记)
安装PyCharm ,Oracle VM VirtualBox,Xshell ,实现仿真远程连接服务器,其中Oracle VM VirtualBox用于那家linux服务器,Xshell 用于连接服务 ...
- ReactNative用指定的真机/模拟器运行项目
使用模拟器运行项目: 命令行中React native项目目录下键入react-native run-ios会启动iOS模拟器, 默认是使用iPhone6,如果想要试用其他版本的模拟器则需要在reac ...
- 05 树莓派安装飞鸽传书 Iptux
2017-08-22 14:47:06 进入页面:https://packages.debian.org/search?keywords=iptux 选择“stretch (stable) ”—— ...
- Urozero Autumn 2016. UKIEPC 2016
B. Build a Boat 首先求出每块船舱的面积$S$,然后进行$m$次二分,得到每个切割线的位置. 为了计算某个切割线形成的区域的面积,需要将多边形整理成上边界和下边界,分别二分出断点位置,中 ...
- mysql时间加减运算
一.MySQL 获得当前日期时间 函数 1.1 获得当前日期 + 时间(date + time) 函数:now() mysql> select now();+———————+| now() |+ ...
- redis:order set有序集合类型的操作(有序集合)
1. order set有序集合类型的操作(有序集合) 有序集合是在无序集合的基础上加了一个排序的依据,这个排序依据叫score,因此声明一个集合为有序集合的时候要加上score(作为排序的依据) 1 ...
- 【网站管理6】_一个网站SEO优化方案
首先,前端/页编人员主要负责站内优化,主要从四个方面入手: 第一个,站内结构优化 合理规划站点结构(1.扁平化结构 2.辅助导航.面包屑导航.次导航) 内容页结构设置(最新文章.推荐文章.热门文章.增 ...