在Python中消费多个Kafka topic,可以使用kafka-python库,这是一个流行的Kafka客户端库。以下是一个详细的代码示例,展示如何创建一个Kafka消费者,并同时消费多个Kafka topic。

1.环境准备

(1)安装Kafka和Zookeeper:确保Kafka和Zookeeper已经安装并运行。

(2)安装kafka-python库:通过pip安装kafka-python库。

bash复制代码

pip install kafka-python

2.示例代码

以下是一个完整的Python脚本,展示了如何创建一个Kafka消费者并消费多个topic。

from kafka import KafkaConsumer
import json
import logging # 配置日志
logging.basicConfig(
level=logging.INFO,
format='%(asctime)s - %(name)s - %(levelname)s - %(message)s'
)
logger = logging.getLogger(__name__) # Kafka配置
bootstrap_servers = 'localhost:9092' # 替换为你的Kafka服务器地址
group_id = 'multi-topic-consumer-group'
topics = ['topic1', 'topic2', 'topic3'] # 替换为你要消费的topic # 消费者配置
consumer_config = {
'bootstrap_servers': bootstrap_servers,
'group_id': group_id,
'auto_offset_reset': 'earliest', # 从最早的offset开始消费
'enable_auto_commit': True,
'auto_commit_interval_ms': 5000,
'value_deserializer': lambda x: json.loads(x.decode('utf-8')) # 假设消息是JSON格式
} # 创建Kafka消费者
consumer = KafkaConsumer(**consumer_config) # 订阅多个topic
consumer.subscribe(topics) try:
# 无限循环,持续消费消息
while True:
for message in consumer:
topic = message.topic
partition = message.partition
offset = message.offset
key = message.key
value = message.value # 打印消费到的消息
logger.info(f"Consumed message from topic: {topic}, partition: {partition}, offset: {offset}, key: {key}, value: {value}") # 你可以在这里添加处理消息的逻辑
# process_message(topic, partition, offset, key, value) except KeyboardInterrupt:
# 捕获Ctrl+C,优雅关闭消费者
logger.info("Caught KeyboardInterrupt, closing consumer.")
consumer.close() except Exception as e:
# 捕获其他异常,记录日志并关闭消费者
logger.error(f"An error occurred: {e}", exc_info=True)
consumer.close()

3.代码解释

(1)日志配置:使用Python的logging模块配置日志,方便调试和记录消费过程中的信息。

(2)Kafka配置:设置Kafka服务器的地址、消费者组ID和要消费的topic列表。

(3)消费者配置:配置消费者参数,包括自动重置offset、自动提交offset的时间间隔和消息反序列化方式(这里假设消息是JSON格式)。

(4)创建消费者:使用配置创建Kafka消费者实例。

(5)订阅topic:通过consumer.subscribe方法订阅多个topic。

(6)消费消息:在无限循环中消费消息,并打印消息的详细信息(topic、partition、offset、key和value)。

(7)异常处理:捕获KeyboardInterrupt(Ctrl+C)以优雅地关闭消费者,并捕获其他异常并记录日志。

4.运行脚本

确保Kafka和Zookeeper正在运行,并且你已经在Kafka中创建了相应的topic(topic1topic2topic3)。然后运行脚本:

bash复制代码

python kafka_multi_topic_consumer.py

这个脚本将开始消费指定的topic,并在控制台上打印出每条消息的详细信息。你可以根据需要修改脚本中的处理逻辑,比如将消息存储到数据库或发送到其他服务。

5.参考价值和实际意义

这个示例代码展示了如何在Python中使用kafka-python库消费多个Kafka topic,适用于需要处理来自不同topic的数据流的场景。例如,在实时数据处理系统中,不同的topic可能代表不同类型的数据流,通过消费多个topic,可以实现数据的整合和处理。此外,该示例还展示了基本的异常处理和日志记录,有助于在生产环境中进行调试和监控。

Python脚本消费多个Kafka topic的更多相关文章

  1. 用canal同步binlog到kafka,spark streaming消费kafka topic乱码问题

    canal 1.1.1版本之后, 默认支持将canal server接收到的binlog数据直接投递到MQ, 目前默认支持的MQ系统有kafka和RocketMQ. 在投递的时候我们使用的是非压平的消 ...

  2. 获取kafka的lag, offset, logsize的shell和python脚本

    python脚本 #!/usr/bin/env python import os import re import sys group_id=sys.argv[1] pn=sys.argv[2] ka ...

  3. Flume简介与使用(三)——Kafka Sink消费数据之Kafka安装

    前面已经介绍了如何利用Thrift Source生产数据,今天介绍如何用Kafka Sink消费数据. 其实之前已经在Flume配置文件里设置了用Kafka Sink消费数据 agent1.sinks ...

  4. python 脚本查看微信把你删除的好友--win系统版

    PS:目测由于微信改动,该脚本目前不起作用 下面截图来自原作者0x5e 相信大家在微信上一定被上面的这段话刷过屏,群发消息应该算是微信上流传最广的找到删除好友的方法了.但群发消息不仅仅会把通讯录里面所 ...

  5. Kafka Topic Partition Replica Assignment实现原理及资源隔离方案

    本文共分为三个部分:   Kafka Topic创建方式 Kafka Topic Partitions Assignment实现原理 Kafka资源隔离方案   1. Kafka Topic创建方式 ...

  6. 记录一次坑爹的Python脚本抢购低价手机经历!

    无意间浏览到魅族官网,说魅族3限量100台.30号中午12点抢购.正好我爪机目前处于报废状态,就来一试手气了.11点多种,习惯性的看了下网页脚本,发现了检测是否到抢购时间,并返回抢购消息的ajax.于 ...

  7. 手动删除Kafka Topic

    一.删除Kafka topic 运行./bin/kafka-topics  --delete --zookeeper [zookeeper server]  --topic [topic name]: ...

  8. kafka topic制定规则

    kafka topic的制定,我们要考虑的问题有很多,比如生产环境中用几备份.partition数目多少合适.用几台机器支撑数据量,这些方面如何去考量?笔者根据实际的维护经验,写一些思考,希望大家指正 ...

  9. kafka topic 完全删除

    kafka topic 完全删除   1.自动删除脚本(得配置server.properties 中 delete.topic.enable=true) ./kafka-topics.sh --zoo ...

  10. kafka topic查看删除

    1,查看kafka topic列表,使用--list参数 >bin/kafka-topics.sh --zookeeper 127.0.0.1:2181 --list __consumer_of ...

随机推荐

  1. How to set keyboard for xshell 8 beta? 快捷键设置

    今天发现xshell8 不能使用Ctrl + v,就找了一下攻略,发现版本不对,都是低版本的,针对还处于测试期间的xshell 8,没有攻略. 那就自己摸索吧,看了几眼,发现:xshell 8 挪位置 ...

  2. 【图文教程】Centos 7下安装Hadoop

    环境说明: 系统:Centos7 在VM中安装的 hadoop版本:2.7.7 JDK:1.8 注意:Hadoop需要Java环境的.记得安装Java环境 PS:Centos JDK安装  mkdir ...

  3. PicGo RequestError: Error: tunneling socket could not be established, cause=connect ECONNREFUSED 127.0.0.1:36677

    PicGo RequestError: Error: tunneling socket could not be established, cause=connect ECONNREFUSED 127 ...

  4. windows系统使用UnblockNeteaseMusic解锁网易云音乐灰色歌曲

    使用UnblockNeteaseMusic解锁网易云音乐灰色歌曲 一.问题 用网易云音乐听歌曲,有的曲目听不了,如下: 二.解决步骤 参照:https://github.com/nondanee/Un ...

  5. Java怎么把多个对象的list的数据合并

    1.示例一:创建几个包含Person对象的List,并将它们合并成一个新的List 在Java中,将多个对象的List合并通常涉及到遍历这些List并将它们的元素添加到一个新的List中.这里,我将给 ...

  6. Angular Material 18+ 高级教程 – Get Started

    前言 本编是 Angular Material 教程的开篇,我先介绍一下这个教程. 首先,Angular Material 教程不会像 Angular 教程那么注重原理,也很少会逛源码. 所以,如果你 ...

  7. OIDC – OpenIddict Core

    3 选 1 IdentityServer 4 本来 IdentityServer 4 一直都是首选的, 但在 2020 年他们决定成立公司, IdentityServer 5 就开始收费了. The ...

  8. Spring —— 注解开发(总结)

    XML配置与注解配置对比   

  9. 系统编程-进程-当fork遇到管道,可能碰撞出什么?

    第一部分 1. 直接上代码 #include <stdio.h> #include <unistd.h> #include <stdlib.h> int globv ...

  10. CE-植物大战僵尸杂交版

    植物大战僵尸杂交版 偏移:208+82c