Python脚本消费多个Kafka topic
在Python中消费多个Kafka topic,可以使用kafka-python库,这是一个流行的Kafka客户端库。以下是一个详细的代码示例,展示如何创建一个Kafka消费者,并同时消费多个Kafka topic。
1.环境准备
(1)安装Kafka和Zookeeper:确保Kafka和Zookeeper已经安装并运行。
(2)安装kafka-python库:通过pip安装kafka-python库。
bash复制代码
pip install kafka-python
2.示例代码
以下是一个完整的Python脚本,展示了如何创建一个Kafka消费者并消费多个topic。
from kafka import KafkaConsumer
import json
import logging
# 配置日志
logging.basicConfig(
level=logging.INFO,
format='%(asctime)s - %(name)s - %(levelname)s - %(message)s'
)
logger = logging.getLogger(__name__)
# Kafka配置
bootstrap_servers = 'localhost:9092' # 替换为你的Kafka服务器地址
group_id = 'multi-topic-consumer-group'
topics = ['topic1', 'topic2', 'topic3'] # 替换为你要消费的topic
# 消费者配置
consumer_config = {
'bootstrap_servers': bootstrap_servers,
'group_id': group_id,
'auto_offset_reset': 'earliest', # 从最早的offset开始消费
'enable_auto_commit': True,
'auto_commit_interval_ms': 5000,
'value_deserializer': lambda x: json.loads(x.decode('utf-8')) # 假设消息是JSON格式
}
# 创建Kafka消费者
consumer = KafkaConsumer(**consumer_config)
# 订阅多个topic
consumer.subscribe(topics)
try:
# 无限循环,持续消费消息
while True:
for message in consumer:
topic = message.topic
partition = message.partition
offset = message.offset
key = message.key
value = message.value
# 打印消费到的消息
logger.info(f"Consumed message from topic: {topic}, partition: {partition}, offset: {offset}, key: {key}, value: {value}")
# 你可以在这里添加处理消息的逻辑
# process_message(topic, partition, offset, key, value)
except KeyboardInterrupt:
# 捕获Ctrl+C,优雅关闭消费者
logger.info("Caught KeyboardInterrupt, closing consumer.")
consumer.close()
except Exception as e:
# 捕获其他异常,记录日志并关闭消费者
logger.error(f"An error occurred: {e}", exc_info=True)
consumer.close()
3.代码解释
(1)日志配置:使用Python的logging模块配置日志,方便调试和记录消费过程中的信息。
(2)Kafka配置:设置Kafka服务器的地址、消费者组ID和要消费的topic列表。
(3)消费者配置:配置消费者参数,包括自动重置offset、自动提交offset的时间间隔和消息反序列化方式(这里假设消息是JSON格式)。
(4)创建消费者:使用配置创建Kafka消费者实例。
(5)订阅topic:通过consumer.subscribe方法订阅多个topic。
(6)消费消息:在无限循环中消费消息,并打印消息的详细信息(topic、partition、offset、key和value)。
(7)异常处理:捕获KeyboardInterrupt(Ctrl+C)以优雅地关闭消费者,并捕获其他异常并记录日志。
4.运行脚本
确保Kafka和Zookeeper正在运行,并且你已经在Kafka中创建了相应的topic(topic1、topic2、topic3)。然后运行脚本:
bash复制代码
python kafka_multi_topic_consumer.py
这个脚本将开始消费指定的topic,并在控制台上打印出每条消息的详细信息。你可以根据需要修改脚本中的处理逻辑,比如将消息存储到数据库或发送到其他服务。
5.参考价值和实际意义
这个示例代码展示了如何在Python中使用kafka-python库消费多个Kafka topic,适用于需要处理来自不同topic的数据流的场景。例如,在实时数据处理系统中,不同的topic可能代表不同类型的数据流,通过消费多个topic,可以实现数据的整合和处理。此外,该示例还展示了基本的异常处理和日志记录,有助于在生产环境中进行调试和监控。
Python脚本消费多个Kafka topic的更多相关文章
- 用canal同步binlog到kafka,spark streaming消费kafka topic乱码问题
canal 1.1.1版本之后, 默认支持将canal server接收到的binlog数据直接投递到MQ, 目前默认支持的MQ系统有kafka和RocketMQ. 在投递的时候我们使用的是非压平的消 ...
- 获取kafka的lag, offset, logsize的shell和python脚本
python脚本 #!/usr/bin/env python import os import re import sys group_id=sys.argv[1] pn=sys.argv[2] ka ...
- Flume简介与使用(三)——Kafka Sink消费数据之Kafka安装
前面已经介绍了如何利用Thrift Source生产数据,今天介绍如何用Kafka Sink消费数据. 其实之前已经在Flume配置文件里设置了用Kafka Sink消费数据 agent1.sinks ...
- python 脚本查看微信把你删除的好友--win系统版
PS:目测由于微信改动,该脚本目前不起作用 下面截图来自原作者0x5e 相信大家在微信上一定被上面的这段话刷过屏,群发消息应该算是微信上流传最广的找到删除好友的方法了.但群发消息不仅仅会把通讯录里面所 ...
- Kafka Topic Partition Replica Assignment实现原理及资源隔离方案
本文共分为三个部分: Kafka Topic创建方式 Kafka Topic Partitions Assignment实现原理 Kafka资源隔离方案 1. Kafka Topic创建方式 ...
- 记录一次坑爹的Python脚本抢购低价手机经历!
无意间浏览到魅族官网,说魅族3限量100台.30号中午12点抢购.正好我爪机目前处于报废状态,就来一试手气了.11点多种,习惯性的看了下网页脚本,发现了检测是否到抢购时间,并返回抢购消息的ajax.于 ...
- 手动删除Kafka Topic
一.删除Kafka topic 运行./bin/kafka-topics --delete --zookeeper [zookeeper server] --topic [topic name]: ...
- kafka topic制定规则
kafka topic的制定,我们要考虑的问题有很多,比如生产环境中用几备份.partition数目多少合适.用几台机器支撑数据量,这些方面如何去考量?笔者根据实际的维护经验,写一些思考,希望大家指正 ...
- kafka topic 完全删除
kafka topic 完全删除 1.自动删除脚本(得配置server.properties 中 delete.topic.enable=true) ./kafka-topics.sh --zoo ...
- kafka topic查看删除
1,查看kafka topic列表,使用--list参数 >bin/kafka-topics.sh --zookeeper 127.0.0.1:2181 --list __consumer_of ...
随机推荐
- 谈谈 Nginx 那点事【二】
前言 在上一讲 谈谈 Nginx 那点事[一] 中,介绍了Nginx的安装及基本结构,今天将工作中Nginx的一些配置,及常用的场景做一些总结. 这一讲总结的内容主要是关于Nginx服务配置.静态资源 ...
- Dify大语言模型应用开发平台新手必备:安装注册与私有服务器部署全步骤
Dify简介 Dify是一个开源的大语言模型(Large Language Model, LLM)应用开发平台.它融合了后端即服务(Backend as a Service, BaaS)和LLMOps ...
- Cookie的secure属性引起循环登录问题分析及解决方案
作者:来自 vivo 互联网服务器团队- Wang Fei 单点登录作为公共组件,在各个公司内部被各个系统所广泛使用,但是在使用过程中我们会遇到各种各样的问题,其中循环登录问题就是一个比较经典的问题. ...
- 千万级别mysql 分库分表后表分页查询优化方案初探
随着使用的用户群体越来越多,表数据也会随着时间的推移,单表的数据量会越来越大. 以订单表为例,假如每天的订单量在 4 万左右,那么一个月的订单量就是 120 多万,一年就是 1400 多万,随着年数的 ...
- ECMA Script6 中的 尾调用优化
在读 <深入理解ES6>一书中,看到有关函数的 "尾调用优化" 章节,特此记录一下 尾调用 指的是 函数作为另一个函数的最后一条语句被调用: function foo ...
- SQL Server – 基本操作 Table 和 Column
前言 日常都是用 EF Core 来管理 Database, 偶尔也用 Management Studio, 就是很少手写 Command. 虽然网上一拉就有很多, 但是每次写单侧都要到处找还是挺烦的 ...
- 5G网元功能与接口
5G网元功能与接口 5G移动通信整体网络架构 5G网络功能之间的信息交互可以基于两种方式表示:其一为基于服务表示:其二为基于点对点表示.实时部署时,也可以采用两种方式相结合的表示方式. 并不是所有的接 ...
- 暑假集训CSP提高模拟1
A.Start 比较小的大模拟,还没改出来 B.mine 线性推一下(这个题记搜容易写偏,因为分讨太多) 设 \(f[i][j]\),第一维表示位置,第二位表示末位状态(是雷,是 \(0\),是 \( ...
- 基于AIOps实现智慧园区极简IT运维
随着物联网.云平台.大数据.人工智能等技术的发展,并逐步投入到智慧园区的建设,传统园区数字化转型加快.园区的形式包括产业园区.教育园区.制造业园区.科研园区.社区等等,园区形态不断演进和发展,园区网承 ...
- 北京智和信通 | 无人值守的IDC机房动环综合监控运维
随着信息技术的发展和全面应用,数据中心机房已成为各大企事业单位维持业务正常运营的重要组成部分,网络设备.系统.业务应用数量与日俱增,规模逐渐扩大,一旦机房内的设备出现故障,将对数据处理.传输.存储以及 ...