一、下载安装Kafka0.8.2

二、vi config/server.properties

三、修改为advertised.host.name=192.168.1.76

四、rm -rf  /tmp *移除临时目录下的文件

五、修改vi /etc/hosts中的127.0.0.1为192.168.1.76

六、开启zookeeper

  1. bin/zookeeper-server-start.sh config/zookeeper.properties

七、开启kafka

bin/kafka-server-start.sh config/server.properties


八、创建主题

bin/kafka-topics.sh --create --zookeeper 192.168.1.76:2181 --replication-factor 1 --partitions 1 --topic mytesttopic

九、开启消费者

bin/kafka-console-consumer.sh --zookeeper 192.168.1.76:2181 --topic mytesttopic --from-beginning 回车

十、生产者代码(0.8.2.1的jar包)

  1. import java.util.*;
  2. import org.apache.kafka.clients.producer.KafkaProducer;
  3. import org.apache.kafka.clients.producer.ProducerRecord;
  4. public class SimpleProducer {
  5. public static void main(String[] args) {
  6. Properties properties = new Properties();
  7. properties.put("bootstrap.servers", "192.168.1.76:9092");
  8. properties.put("metadata.broker.list", "192.168.1.76:9092");
  9. properties.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
  10. properties.put("serializer.class", "kafka.serializer.StringEncoder");
  11. properties.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
  12. properties.put("request.required.acks", "1");
  13. KafkaProducer<Integer, String> producer = new KafkaProducer<Integer, String>(properties);
  14. for (int iCount = 0; iCount < 100; iCount++) {
  15. String message = "My Test Message No " + iCount;
  16. ProducerRecord<Integer, String> record = new ProducerRecord<Integer, String>("mytesttopic", message);
  17. producer.send(record);
  18. }
  19. producer.close();
  20. }
  21. }

十一、查看结果

  1. My Test Message No 0
  2. My Test Message No 1
  3. My Test Message No 2
  4. My Test Message No 3
  5. My Test Message No 4
  6. My Test Message No 5
  7. My Test Message No 6
  8. My Test Message No 7
  9. My Test Message No 8
  10. My Test Message No 9
  11. My Test Message No 10
  1. ...................
  1. ..................

十、消费者代码(0.8.2.1的jar包)

  1. import kafka.consumer.ConsumerConfig;
  2. import kafka.consumer.ConsumerIterator;
  3. import kafka.consumer.KafkaStream;
  4. import kafka.serializer.StringDecoder;
  5. import kafka.utils.VerifiableProperties;
  6. import java.util.*;
  7. public class SimpleConsumerExample {
  8. private static kafka.javaapi.consumer.ConsumerConnector consumer;
  9. public static void consume() {
  10. Properties props = new Properties();
  11. // zookeeper 配置
  12. props.put("zookeeper.connect", "192.168.1.76:2181");
  13. // group 代表一个消费组
  14. props.put("group.id", "jd-group");
  15. // zk连接超时
  16. props.put("zookeeper.session.timeout.ms", "4000");
  17. props.put("zookeeper.sync.time.ms", "200");
  18. props.put("auto.commit.interval.ms", "1000");
  19. props.put("auto.offset.reset", "smallest");
  20. // 序列化类
  21. props.put("serializer.class", "kafka.serializer.StringEncoder");
  22. ConsumerConfig config = new ConsumerConfig(props);
  23. consumer = kafka.consumer.Consumer.createJavaConsumerConnector(config);
  24. Map<String, Integer> topicCountMap = new HashMap<String, Integer>();
  25. topicCountMap.put("mytesttopic", new Integer(1));
  26. StringDecoder keyDecoder = new StringDecoder(new VerifiableProperties());
  27. StringDecoder valueDecoder = new StringDecoder(new VerifiableProperties());
  28. Map<String, List<KafkaStream<String, String>>> consumerMap = consumer.createMessageStreams(topicCountMap,
  29. keyDecoder, valueDecoder);
  30. KafkaStream<String, String> stream = consumerMap.get("mytesttopic").get(0);
  31. ConsumerIterator<String, String> it = stream.iterator();
  32. while (it.hasNext())
  33. System.out.println(it.next().message());
  34. }
  35. public static void main(String[] args) {
  36. consume();
  37. }
  38. }

十一、提供下C#版的代码

    1. static void Main(string[] args)
    2. {
    3. //https://github.com/Jroland/kafka-net
    4. //生产者
    5. //var options = new KafkaOptions(new Uri("http://192.168.1.76:9092"), new Uri("http://192.168.1.76:9092"));
    6. //var router = new BrokerRouter(options);
    7. //var client = new Producer(router);
    8. //client.SendMessageAsync("mytesttopic", new[] { new Message("hello world") }).Wait();
    9. //using (client) { }
    10. //消费者
    11. var options = new KafkaOptions(new Uri("http://192.168.1.76:9092"), new Uri("http://192.168.1.76:9092"));
    12. var router = new BrokerRouter(options);
    13. var consumer = new Consumer(new ConsumerOptions("mytesttopic", router));
    14. //Consume returns a blocking IEnumerable (ie: never ending stream)
    15. foreach (var message in consumer.Consume())
    16. {
    17. Console.WriteLine("Response: P{0},O{1} : {2}",
    18. message.Meta.PartitionId, message.Meta.Offset,System.Text.Encoding.ASCII.GetString(message.Value));
    19. }
    20. Console.ReadLine();
    21. }

创建Kafka0.8.2生产者与消费者的更多相关文章

  1. java进阶(40)--wait与notify(生产者与消费者模式)

    文档目录: 一.概念 二.wait的作用 三.notify的作用 四.生产者消费者模式 五.举例 ---------------------------------------分割线:正文------ ...

  2. 第3月第2天 find symbolicatecrash 生产者-消费者 ice 引用计数

    1.linux find export find /Applications/Xcode.app/ -name symbolicatecrash -type f export DEVELOPER_DI ...

  3. LMAX Disruptor—多生产者多消费者中,消息复制分发的高性能实现

    解决的问题 当我们有多个消息的生产者线程,一个消费者线程时,他们之间如何进行高并发.线程安全的协调? 很简单,用一个队列. 当我们有多个消息的生产者线程,多个消费者线程,并且每一条消息需要被所有的消费 ...

  4. java 22 - 19 多线程之生产者和消费者的代码优化

    在之前,是把生产者录入数据和消费者获取数据的所有代码都分别写在各自的类中. 这样不大好 这次把生产者和消费者部分关键代码都写入资源类中: package zl_Thread; public class ...

  5. java 22 - 16 多线程之生产者和消费者的问题

    生产者和消费者问题的描述图 通过上图,我们可以发现: 生产者和消费者使用的都是同一个资源(肉包子) 所以,当使用线程的时候,这两类的锁也是同一把锁(为了避免出现线程安全问题) 例子:学生信息的录入和获 ...

  6. Java实现生产者和消费者

    生产者和消费者问题是操作系统的经典问题,在实际工作中也常会用到,主要的难点在于协调生产者和消费者,因为生产者的个数和消费者的个数不确定,而生产者的生成速度与消费者的消费速度也不一样,同时还要实现生产者 ...

  7. java多线程中的生产者与消费者之等待唤醒机制@Version1.0

    一.生产者消费者模式的学生类成员变量生产与消费demo,第一版1.等待唤醒:    Object类中提供了三个方法:    wait():等待    notify():唤醒单个线程    notify ...

  8. C# 线程(四):生产者和消费者

    From : http://kb.cnblogs.com/page/42530/ 前面说过,每个线程都有自己的资源,但是代码区是共享的,即每个线程都可以执行相同的函数.这可能带来的问题就是几个线程同时 ...

  9. Android(java)学习笔记71:生产者和消费者之等待唤醒机制

    1. 首先我们根据梳理我们之前Android(java)学习笔记70中关于生产者和消费者程序思路: 2. 下面我们就要重点介绍这个等待唤醒机制: (1)第一步:还是先通过代码体现出等待唤醒机制 pac ...

随机推荐

  1. 好的框架需要好的 API 设计 —— API 设计的六个原则

    说到框架设计,打心底都会觉得很大很宽泛,而 API 设计是框架设计中的重要组成部分.相比于有很多大佬都认可的面向对象的六大原则.23 种常见的设计模式来说,API 设计确实缺少行业公认的原则或者说设计 ...

  2. Testng优势

    选择Testng的理由: 1.可指定执行顺序, dependsOnMethods 属性来应对测试的依赖性问题. 2.·参数化1:轻轻松松从XML中得到参数 @BeforeClass public vo ...

  3. web程序1

  4. 转-oracle中比较两表表结构差异和数据差异的方法

    oracle中比较两表表结构差异和数据差异的方法 原作者:li2008xue2008ling  出处:http://blog.csdn.net       在工作中需要完成这么一个需求:比较两个表的表 ...

  5. iis 更改asp.net 版本设置

    参考来源: https://github.com/neo2018/ZYFC/blob/2e20009097c1e837a6e667a3dffd4224e28f4411/MderFc/Classes/I ...

  6. SSH&SFTP服务分离+家目录锁定

    Step 1 在root用户下创建维护账号的家目录,此处以创建userftp帐号的家目录为例. mkdir -p /chroot/home/user Step 2 在root用户根目录下执行以下命令设 ...

  7. 微博短链接的生成算法(Java版本)

    最近看到微博的短链接真是很火啊,新浪.腾讯.搜狐等微博网站都加入了短链接的功能.之所以要是使用短链接,主要是因为微博只允许发140 字,如果链接地址太长的话,那么发送的字数将大大减少.短链接的主要职责 ...

  8. Hive插入数据的几种常用方法

    Hive的几种常见的数据导入方式这里介绍四种:(1).从本地文件系统中导入数据到Hive表:(2).从HDFS上导入数据到Hive表:(3).从别的表中查询出相应的数据并导入到Hive表中:(4).在 ...

  9. yum安装cacti

    环境: centos 6.5 -x64 cacti-0.8.7e.tar.gz mysql yum安装即可 yum服务使用centos自带的就行.如果是红帽请自行解决yum.本文不赘述. **注意:同 ...

  10. 常见的JS和CSS问题

    事件冒泡 DOM的事件冒泡机制和WPF很相似,DOM事件机制包含冒泡和捕获两种,按照topmost element->innermost element方向传递事件被称为捕获方式,而从inner ...