漫游Kafka实战篇之客户端API
Kafka Producer APIs
旧版的Procuder API有两种:kafka.producer.SyncProducer和kafka.producer.async.AsyncProducer.它们都实现了同一个接口:
- class Producer {
- /* 将消息发送到指定分区 */
- public void send(kafka.javaapi.producer.ProducerData<K,V> producerData);
- /* 批量发送一批消息 */
- public void send(java.util.List<kafka.javaapi.producer.ProducerData<K,V>> producerData);
- /* 关闭producer */
- public void close();
- }
新版的Producer API提供了以下功能:
- 可以将多个消息缓存到本地队列里,然后异步的批量发送到broker,可以通过参数
producer.type=async做到。缓存的大小可以通过一些参数指定:queue.time和batch.size。一个后台线程((kafka.producer.async.ProducerSendThread)从队列中取出数据并让kafka.producer.EventHandler将消息发送到broker,也可以通过参数event.handler定制handler,在producer端处理数据的不同的阶段注册处理器,比如可以对这一过程进行日志追踪,或进行一些监控。只需实现kafka.producer.async.CallbackHandler接口,并在callback.handler中配置。 - 自己编写Encoder来序列化消息,只需实现下面这个接口。默认的Encoder是
kafka.serializer.DefaultEncoder。- interface Encoder<T> {
- public Message toMessage(T data);
- }
- 提供了基于Zookeeper的broker自动感知能力,可以通过参数
zk.connect实现。如果不使用Zookeeper,也可以使用broker.list参数指定一个静态的brokers列表,这样消息将被随机的发送到一个broker上,一旦选中的broker失败了,消息发送也就失败了。 - 通过分区函数
kafka.producer.Partitioner类对消息分区。- interface Partitioner<T> {
- int partition(T key, int numPartitions);
- }
分区函数有两个参数:key和可用的分区数量,从分区列表中选择一个分区并返回id。默认的分区策略是
hash(key)%numPartitions.如果key是null,就随机的选择一个。可以通过参数partitioner.class定制分区函数。
新的api完整实例如下:
- import java.util.*;
- import kafka.javaapi.producer.Producer;
- import kafka.producer.KeyedMessage;
- import kafka.producer.ProducerConfig;
- public class TestProducer {
- public static void main(String[] args) {
- long events = Long.parseLong(args[0]);
- Random rnd = new Random();
- Properties props = new Properties();
- props.put("metadata.broker.list", "broker1:9092,broker2:9092 ");
- props.put("serializer.class", "kafka.serializer.StringEncoder");
- props.put("partitioner.class", "example.producer.SimplePartitioner");
- props.put("request.required.acks", "1");
- ProducerConfig config = new ProducerConfig(props);
- Producer<String, String> producer = new Producer<String, String>(config);
- for (long nEvents = 0; nEvents < events; nEvents++) {
- long runtime = new Date().getTime();
- String ip = “192.168.2.” + rnd.nextInt(255);
- String msg = runtime + “,www.example.com,” + ip;
- KeyedMessage<String, String> data = new KeyedMessage<String, String>("page_visits", ip, msg);
- producer.send(data);
- }
- producer.close();
- }
- }
下面这个是用到的分区函数:
- import kafka.producer.Partitioner;
- import kafka.utils.VerifiableProperties;
- public class SimplePartitioner implements Partitioner<String> {
- public SimplePartitioner (VerifiableProperties props) {
- }
- public int partition(String key, int a_numPartitions) {
- int partition = 0;
- int offset = key.lastIndexOf('.');
- if (offset > 0) {
- partition = Integer.parseInt( key.substring(offset+1)) % a_numPartitions;
- }
- return partition;
- }
- }
KafKa Consumer APIs
Consumer API有两个级别。低级别的和一个指定的broker保持连接,并在接收完消息后关闭连接,这个级别是无状态的,每次读取消息都带着offset。
高级别的API隐藏了和brokers连接的细节,在不必关心服务端架构的情况下和服务端通信。还可以自己维护消费状态,并可以通过一些条件指定订阅特定的topic,比如白名单黑名单或者正则表达式。
低级别的API
- class SimpleConsumer {
- /*向一个broker发送读取请求并得到消息集 */
- public ByteBufferMessageSet fetch(FetchRequest request);
- /*向一个broker发送读取请求并得到一个相应集 */
- public MultiFetchResponse multifetch(List<FetchRequest> fetches);
- /**
- * 得到指定时间之前的offsets
- * 返回值是offsets列表,以倒序排序
- * @param time: 时间,毫秒,
- * 如果指定为OffsetRequest$.MODULE$.LATIEST_TIME(), 得到最新的offset.
- * 如果指定为OffsetRequest$.MODULE$.EARLIEST_TIME(),得到最老的offset.
- */
- public long[] getOffsetsBefore(String topic, int partition, long time, int maxNumOffsets);
- }
低级别的API是高级别API实现的基础,也是为了一些对维持消费状态有特殊需求的场景,比如Hadoop consumer这样的离线consumer。
高级别的API
- /* 创建连接 */
- ConsumerConnector connector = Consumer.create(consumerConfig);
- interface ConsumerConnector {
- /**
- * 这个方法可以得到一个流的列表,每个流都是MessageAndMetadata的迭代,通过MessageAndMetadata可以拿到消息和其他的元数据(目前之后topic)
- * Input: a map of <topic, #streams>
- * Output: a map of <topic, list of message streams>
- */
- public Map<String,List<KafkaStream>> createMessageStreams(Map<String,Int> topicCountMap);
- /**
- * 你也可以得到一个流的列表,它包含了符合TopicFiler的消息的迭代,
- * 一个TopicFilter是一个封装了白名单或黑名单的正则表达式。
- */
- public List<KafkaStream> createMessageStreamsByFilter(
- TopicFilter topicFilter, int numStreams);
- /* 提交目前消费到的offset */
- public commitOffsets()
- /* 关闭连接 */
- public shutdown()
- }
这个API围绕着由KafkaStream实现的迭代器展开,每个流代表一系列从一个或多个分区多和broker上汇聚来的消息,每个流由一个线程处理,所以客户端可以在创建的时候通过参数指定想要几个流。一个流是多个分区多个broker的合并,但是每个分区的消息只会流向一个流。
每调用一次createMessageStreams都会将consumer注册到topic上,这样consumer和brokers之间的负载均衡就会进行调整。API鼓励每次调用创建更多的topic流以减少这种调整。createMessageStreamsByFilter方法注册监听可以感知新的符合filter的tipic。
漫游Kafka实战篇之客户端API的更多相关文章
- 漫游Kafka实战篇clientAPI
原文地址:http://blog.csdn.net/honglei915/article/details/37697655 Kafka Producer APIs 旧版的Procuder API有两种 ...
- 漫游kafka实战篇之搭建Kafka开发环境(3)
上篇文章中我们搭建了kafka的服务器,并可以使用Kafka的命令行工具创建topic,发送和接收消息.下面我们来搭建kafka的开发环境. 添加依赖 搭建开发环境需要引入kafka的jar包 ...
- 漫游kafka实战篇之搭建Kafka开发环境
上篇文章中我们搭建了kafka的服务器,并可以使用Kafka的命令行工具创建topic,发送和接收消息.下面我们来搭建kafka的开发环境. 添加依赖 搭建开发环境需要引入kafka的jar包 ...
- 漫游Kafka实战篇之搭建Kafka运行环境
接下来一步一步搭建Kafka运行环境. Step 1: 下载Kafka 点击下载最新的版本并解压. > tar -xzf kafka_2.9.2-0.8.1.1.tgz > cd kafk ...
- 漫游Kafka实战篇之搭建Kafka运行环境(2)
接下来一步一步搭建Kafka运行环境. Step 1: 下载Kafka 点击下载最新的版本并解压. > tar -xzf kafka_2.9.2-0.8.1.1.tgz > cd kafk ...
- javamail模拟邮箱功能发送电子邮件-基础实战篇(javamail API电子邮件实例)
引言: JavaMail 是一种可选的.能用于读取.编写和发送电子消息的包 JavaMail jar包下载地址:http://java.sun.com/products/javamail/downlo ...
- 漫游Kafka入门篇之简单介绍
介绍 Kafka是一个分布式的.可分区的.可复制的消息系统.它提供了普通消息系统的功能,但具有自己独特的设计.这个独特的设计是什么样的呢? 首先让我们看几个基本的消息系统术语: Kafka将消息以 ...
- 漫游Kafka入门篇之简单介绍(1)
介绍 Kafka是一个分布式的.可分区的.可复制的消息系统.它提供了普通消息系统的功能,但具有自己独特的设计.这个独特的设计是什么样的呢? 首先让我们看几个基本的消息系统术语: Kafka将消息以 ...
- (转)漫游Kafka入门篇之简单介绍
转自:http://blog.csdn.net/honglei915/article/details/37564521 原文地址:http://blog.csdn.net/honglei915/art ...
随机推荐
- SOA之(1)——SOA架构基础概念
在深入探讨什么是面向服务的架构(SOA)之前,先建立一些基本的概念和术语的基本描述而非严格定义,所以也许有些定义在业内还存留争议,此处暂且忽略. 架构基础 技术架构(Technology Archit ...
- NGUI 实现 透明底图遮罩 && 人物像素变黑
今天 UI 那边要求实现一个 透明底图遮罩 与 变黑 的效果. 刚开始考虑使用 shader 实现一个 网上搜了一下,发现了这个,但是底图需要不透明才行,不然他会把 底图的不遮罩部分的透明部分 进行颜 ...
- JavaScript js 精确、保留小数方法
//保留两位小数 //功能:将浮点数四舍五入,取小数点后2位 function toDecimal(x) { var f = parseFloat(x); if (isNaN(f)) { return ...
- Activity学习(三)——跳转传值
Activity跳转与传值,主要是通过Intent类来连接多个Activity,以及传递数据. Intent是Android一个很重要的类.Intent直译是“意图”,什么是意图呢?比如你想从这个 ...
- ExtJs之Ext.core.Element
<!DOCTYPE html> <html> <head> <title>ExtJs</title> <meta http-equiv ...
- 传说中的WCF(5):数据协定(a)
在第4篇中,咱们了解了发送/接收SOAP头,从本篇开头,我们不妨更深入地去探求一下有关WCF中的消息到底是啥玩意儿.WCF庞大而复杂,而从 MSDN文档中,你会看到许多很专业很抽象的东西,你不禁会问, ...
- 错误处理--pure specifier can only be specified for functions
错误处理--pure specifier can only be specified for functions 今天下载了log4cpp的源代码,在VC6下编译时出现错误: ..\..\includ ...
- [转载] Linux下多路复用IO接口 epoll select poll 的区别
原地址:http://bbs.linuxpk.com/thread-43628-1-1.html 废话不多说,一下是本人学习nginx 的时候总结的一些资料,比较乱,但看完后细细揣摩一下应该就弄明白区 ...
- http://blog.163.com/zhangmihuo_2007/blog/static/27011075201392685751232/
http://blog.163.com/zhangmihuo_2007/blog/static/27011075201392685751232/
- Log4J入门教程(一) 入门例程
Log4J的入门简介学习 简介: Log4j是Apache的一个开放源代码项目,通过使用Log4j,我们可以控制日志信息输送的目的地是控制台.文件.GUI组件.甚至是套接口服务器.NT的事件记录器.U ...