Kafka简介及使用PHP处理Kafka消息

Kafka 是一种高吞吐的分布式消息系统,能够替代传统的消息队列用于解耦合数据处理,缓存未处理消息等,同时具有更高的吞吐率,支持分区、多副本、冗余,因此被广泛用于大规模消息数据处理应用。

Kafka的特点:

  • 以时间复杂度为O(1)的方式提供消息持久化能力,即使对TB级以上数据也能保证常数时间复杂度的访问性能。
  • 高吞吐率。即使在非常廉价的商用机器上也能做到单机支持每秒100K条以上消息的传输。【据了解,Kafka每秒可以生产约25万消息(50 MB),每秒处理55万消息(110 MB)】
  • 支持Kafka Server间的消息分区,同时保证每个Partition内的消息顺序传输。
  • 分布式系统,易于向外扩展。所有的producer、broker和consumer都会有多个,均为分布式的。无需停机即可扩展机器。
  • 消息被处理的状态是在consumer端维护,而不是由server端维护。当失败时能自动平衡。
  • 同时支持离线数据处理和实时数据处理。

Kafka的架构:

kafka架构图

Kafka的整体架构非常简单,producer、broker(kafka)和consumer都可以有多个。Producer,consumer实现Kafka注册的接口,数据从producer发送到broker,broker承担一个中间缓存和分发的作用。broker分发注册到系统中的consumer。broker的作用类似于缓存,即活跃的数据和离线处理系统之间的缓存。客户端和服务器端的通信,是基于简单,高性能,且与编程语言无关的TCP协议。

Kafka基本概念:

  • Topic:特指Kafka处理的消息源(feeds of messages)的不同分类。
  • Partition:Topic物理上的分组,一个topic可以分为多个partition,每个partition是一个有序的队列。partition中的每条消息都会被分配一个有序的id(offset)。
  • Message:消息,是通信的基本单位,每个producer可以向一个topic(主题)发布一些消息。
  • Producers:消息和数据生产者,向Kafka的一个topic发布消息的过程叫做producers。
  • Consumers:消息和数据消费者,订阅topics并处理其发布的消息的过程叫做consumers。
  • Broker:缓存代理,Kafa集群中的一台或多台服务器统称为broker。

Kafka消息发送的流程:

Kafka消息发送

下面是PHP生产、消费Kafka消息的例子(假设已经配置好Kafka):

1.从zookeeper源码src/c/src安装zookeeper c client

  1.  
    cd zookeeper-3.4.8/src/c
  2.  
    ./configure
  3.  
    make && make install

2.编译php libzookper扩展

  1.  
    git clone https://github.com/Timandes/libzookeeper.git
  2.  
    cd libzookeeper
  3.  
    phpize
  4.  
    ./configure--with-libzookeeper=/usr/local/bin/cli_mt
  5.  
    make && makeinstall

3.编译php zookeeper扩展

  1.  
    git clone https://github.com/andreiz/php-zookeeper.git
  2.  
    cd php-zookeeper
  3.  
    phpize
  4.  
    ./configure
  5.  
    make && make install

4.修改php.ini配置,添加libzookeeper和php-zookeeper扩展

  1.  
    extension=libzookeeper.so
  2.  
    extension=zookeeper.so

PHP处理Kafka消息:

1.启动zookeeper和kafka

  1.  
    ./bin/zookeeper-server-start.sh config/zookeeper.properties
  2.  
     
  3.  
    ./bin/kafka-server-start.sh config/server.properties

2.创建由2个partition组成的、名为testtopic的topic

kafka_2.11-0.10.0.0/bin/kafka-topics.sh --create--zookeeper localhost:2181 --replication-factor --partitions --topic testtopic

3.composer安装nmred/kafka-php

1 composer require "nmred/kafka-php"

4.producer.php代码

  1.  
    <php 
  2.  
    require_once('./vendor/autoload.php'); 
  3.  
    $produce=/Kafka/Produce::getInstance('localhost:2181',3000); 
  4.  
    $produce->setRequireAck(-1); $topicName='testtopic';
  5.  
    //获取到topic下可用的partitions
  6.  
    $partitions=$produce->getAvailablePartitions($topicName);
  7.  
    $partitionCount=count($partitions); 
  8.  
    $count=1;//可以处理的消费者数量(可以理解为server数量)
  9.  
    while(true){    $message=json_encode(array('uid'=>$count,'age'=>$count%100,'datetime'=>date('Y-m-d H:i:s')));     
  10.  
    //发送消息到不同的partition   
  11.  
     $partitionId=$count%$partitionCount;    
  12.  
    $produce->setMessages('testtopic',$partitionId,array($message));   
  13.  
     $result=$produce->send();    
  14.  
    var_dump($result);     
  15.  
    $count++;   
  16.  
     echo"producer sleeping/n";   
  17.  
     sleep(1);
  18.  
    }

5、consumer.php代码

  1.  
    <?php 
  2.  
    require_once('./vendor/autoload.php'); 
  3.  
    //获取需要处理的partitionId
  4.  
    $partitionId = isset($argv[1]) ? intval($argv[1]) :0; 
  5.  
    $consumer =/Kafka/Consumer::getInstance('localhost:2181'); 
  6.  
    $consumer->setGroup('test-consumer-group');
  7.  
    $consumer->setPartition('testtopic', $partitionId);
  8.  
    $consumer->setFromOffset(true);
  9.  
    $consumer->setMaxBytes(102400); 
  10.  
    while(true){    
  11.  
    $topic = $consumer->fetch();     
  12.  
    foreach ($topic as $topicName => $partition{        
  13.  
    foreach ($partition as $partId => $messageSet{            
  14.  
    foreach ($messageSet as $message){                
  15.  
    var_dump($message);           
  16.  
    }        
  17.  
    }    
  18.  
    }    
  19.  
    echo"consumer sleeping/n";   
  20.  
    sleep(1);
  21.  
    }

6、在3个终端界面分别运行

  1.  
    php producer.php
  2.  
    php consumer.php
  3.  
    php consumer.php

7、两个consumer脚本依次收到producer发送的消息

Kafka简介及使用PHP处理Kafka消息的更多相关文章

  1. KafKa简介和利用docker配置kafka集群及开发环境

    KafKa的基本认识,写的很好的一篇博客:https://www.cnblogs.com/sujing/p/10960832.html 问题:1.kafka是什么?Kafka是一种高吞吐量的分布式发布 ...

  2. Kafka记录-Kafka简介与单机部署测试

    1.Kafka简介 kafka-分布式发布-订阅消息系统,开发语言-Scala,协议-仿AMQP,不支持事务,支持集群,支持负载均衡,支持zk动态扩容 2.Kafka的架构组件 1.话题(Topic) ...

  3. 发布-订阅消息系统Kafka简介

    转载请注明出处:http://www.cnblogs.com/BYRans/ Kafka是由Apache软件基金会开发的一个开源流处理平台,由Scala和Java编写.Kafka是一种高吞吐量的分布式 ...

  4. 高并发面试必问:分布式消息系统Kafka简介

    转载:https://blog.csdn.net/caisini_vc/article/details/48007297 Kafka是分布式发布-订阅消息系统.它最初由LinkedIn公司开发,之后成 ...

  5. Kafka简介

    Kafka简介 转载请注明出处:http://www.cnblogs.com/BYRans/ Apache Kafka发源于LinkedIn,于2011年成为Apache的孵化项目,随后于2012年成 ...

  6. Apache Kafka简介与安装(二)

    Kafka在Windows环境上安装与运行 简介 Apache kafka 是一个分布式的基于push-subscribe的消息系统,它具备快速.可扩展.可持久化的特点.它现在是Apache旗下的一个 ...

  7. Kafka简介、安装

    一.Kafka简介 Kafka是一个分布式.可分区的.可复制的消息系统.几个基本的消息系统术语:1.消费者(Consumer):从消息队列(Kafka)中请求消息的客户端应用程序.2.生产者(Prod ...

  8. 【Apache Kafka】一、Kafka简介及其基本原理

      对于大数据,我们要考虑的问题有很多,首先海量数据如何收集(如Flume),然后对于收集到的数据如何存储(典型的分布式文件系统HDFS.分布式数据库HBase.NoSQL数据库Redis),其次存储 ...

  9. Kafka学习笔记(1)----Kafka的简介和Linux下单机安装

    1. Kafka简介 Kafka is a distributed,partitioned,replicated commit logservice.它提供了类似于JMS的特性,但是在设计实现上完全不 ...

随机推荐

  1. JS中some()和every()和join()和concat()和pop(),push(),shift(),unshfit()和map()和filter()

    一.Array 1.some()和every() some()是对数组中每一项运行指定函数,如果该函数对任一项返回true,则返回true. every()是对数组中的每一项运行给定函数,如果该函数对 ...

  2. Flink从入门到放弃(入门篇1)-Flink是什么

    戳更多文章: 1-Flink入门 2-本地环境搭建&构建第一个Flink应用 3-DataSet API 4-DataSteam API 5-集群部署 6-分布式缓存 7-重启策略 8-Fli ...

  3. C#代码安装Windows服务(控制台应用集成Windows服务)

    最近在为一款C/S架构的科研软件开发云计算版,需要用到WCF,考虑到不需要什么界面以及稳定性,无人值守性,准备用Windows Service作为宿主,无奈Windows Service的安装太为繁复 ...

  4. Docker进阶之四:镜像管理

      一.什么是镜像? 简单说,Docker镜像是一个不包含Linux内核而又精简的Linux操作系统. 二.镜像从哪里来? Docker Hub是由Docker公司负责维护的公共注册中心,包含大量的容 ...

  5. 数据结构——Java实现顺序栈

    一.分析 栈是限定仅在表的一端进行插入或删除操作的线性表,对于栈来说,操作端称为栈顶,另一端则称为栈底,栈的修改是按照后进先出的原则进行的,因此又称为后进先出的线性表. 顺序栈是指利用顺序存储结构实现 ...

  6. 2016年第七届蓝桥杯javaB组 试题 答案 解析

    1.煤球数目 有一堆煤球,堆成三角棱锥形.具体: 第一层放1个, 第二层3个(排列成三角形), 第三层6个(排列成三角形), 第四层10个(排列成三角形), .... 如果一共有100层,共有多少个煤 ...

  7. element-tree-grid(表格树)的使用

    表格树,element-tree-grid需要单独下载并再配合elementUi里el-table使用. 步骤:1.npm install element-tree-grid --save(下载ele ...

  8. Django 使用 locals() 函数

    locals() 函数会以字典类型返回当前位置的全部局部变量. 在 views.py 中添加 from django.shortcuts import render,HttpResponse,rend ...

  9. Jmeter输出完美报告

    做技术的就爱折腾, 看到哪里不够完美,就想把它改改, 使其顺眼. 同样Jmeter输出的报告实在差强人意, 截图发给领导看不够美观, 缺少统计汇总, 有什么方法给对方一个地址就可以浏览报告? 答案是肯 ...

  10. JMeter接口测试实战-动态数据验证

    JMeter接口测试实战-动态数据验证 说到验证就不得不说断言, 先来看下JMeter官方给出断言(Assertion)的定义, 用于检查测试中得到的响应数据等是否符合预期,用以保证测试过程中的数据交 ...