这个是在window环境下面安装的kafka

  • 下载pom依赖

      <dependency>
    <groupId>org.apache.storm</groupId>
    <artifactId>storm-kafka-client</artifactId>
    <version>1.1.1</version>
    </dependency>
    <dependency>
    <groupId>org.apache.kafka</groupId>
    <artifactId>kafka-clients</artifactId>
    <version>0.10.0.0</version>
    </dependency>
    <dependency>
    <groupId>org.apache.storm</groupId>
    <artifactId>storm-core</artifactId>
    <version>1.1.1</version>
    <!-- 本地测试注释集群运行打开 -->
    <!-- <scope>provided</scope>-->
    </dependency>

编写代码

  • 编写SplitSentenceBolt

    public class SplitSentenceBolt extends BaseRichBolt {

    private OutputCollector collector;

    	@Override
    public void prepare(Map map, TopologyContext topologyContext, OutputCollector outputCollector) {
    this.collector=outputCollector;
    } @Override
    public void execute(Tuple tuple) {
    //String sentece = tuple.getStringByField("sentence");
    String sentece=tuple.getString(4);
    String[] words = sentece.split(" ");
    for (String word:words){
    collector.emit(new Values(word));
    }
    } @Override
    public void declareOutputFields(OutputFieldsDeclarer outputFieldsDeclarer) {
    outputFieldsDeclarer.declare(new Fields("words"));
    }
    }
  • 编写WordCountBolt

    public class WordCountBolt extends BaseRichBolt {

    	private  OutputCollector collector;
    private HashMap<String,Long> counts =null; @Override
    public void prepare(Map map, TopologyContext topologyContext, OutputCollector outputCollector) {
    this.collector = outputCollector;
    this.counts = new HashMap<>();
    } @Override
    public void execute(Tuple tuple) {
    String word = tuple.getStringByField("words");
    // String word =tuple.getString(0);
    Long count=this.counts.get(word);
    if(count==null){
    count=0L;
    }
    count++;
    //出现就添加到map中,word相同的,会覆盖掉 所以最后的word就是准确的数据
    this.counts.put(word,count);
    this.collector.emit(new Values(word,count));
    } @Override
    public void declareOutputFields(OutputFieldsDeclarer outputFieldsDeclarer) {
    outputFieldsDeclarer.declare(new Fields("word","count"));
    }
    }
  • 编写ReportBolt

    public class ReportBolt extends BaseRichBolt {

    private HashMap<String,Long> counts=null;

    @Override

    public void prepare(Map map, TopologyContext topologyContext, OutputCollector outputCollector) {

    this.counts=new HashMap<String,Long>();

    }

    	@Override
    public void execute(Tuple input) {
    String word=input.getStringByField("word");
    Long count=input.getLongByField("count");
    this.counts.put(word, count); System.out.println("--------FINAL COUNTS--------");
    List<String> keys=new ArrayList<String>();
    keys.addAll(this.counts.keySet());
    Collections.sort(keys);
    for(String key:keys){
    System.out.println(key+":"+this.counts.get(key));
    }
    System.out.println("----------------------------");
    } @Override
    public void declareOutputFields(OutputFieldsDeclarer outputFieldsDeclarer) { }
    }
  • 编写Topology

    public class MainTopology {

    public static void main(String[] args)throws Exception {

    TopologyBuilder builder = new TopologyBuilder();

    KafkaSpoutConfig.Builder<String, String> kafkabuilder = KafkaSpoutConfig.builder("localhost:9092", "test");

    		//设置kafka属于哪个组
    kafkabuilder.setGroupId("testgroup");
    //创建kafkaspoutConfig
    KafkaSpoutConfig<String, String> build = kafkabuilder.build();
    //通过kafkaspoutconfig获取kafkaspout
    KafkaSpout<String, String> kafkaSpout = new KafkaSpout<>(build);
    //设置四个线程接收数据
    builder.setSpout("kafkaspout",kafkaSpout,4);
    // builder.setBolt("printBolt", new PrintBolt(),2).localOrShuffleGrouping("kafkaspout"); builder.setBolt("split-bolt",new SplitSentenceBolt(),2).setNumTasks(4).shuffleGrouping("kafkaspout");
    // 有时候我们需要将特定数据的tuple路由到特殊的bolt实例中,在此我们使用fieldsGrouping
    // 来保证所有"word"字段值相同的tuple会被路由到同一个WordCountBolt实例中
    builder.setBolt("count-bolt",new WordCountBolt(),2).fieldsGrouping("split-bolt",new Fields("words"));
    builder.setBolt("report-bolt",new ReportBolt()).globalGrouping("count-bolt"); Config config=new Config();
    config.setDebug(false);
    config.setNumWorkers(2);
    LocalCluster cluster =new LocalCluster();
    cluster.submitTopology("kafkaspout",config,builder.createTopology()); }

storm和kafka的wordCount的更多相关文章

  1. Storm集成Kafka应用的开发

    我们知道storm的作用主要是进行流式计算,对于源源不断的均匀数据流流入处理是非常有效的,而现实生活中大部分场景并不是均匀的数据流,而是时而多时而少的数据流入,这种情况下显然用批量处理是不合适的,如果 ...

  2. storm集成kafka

    kafkautil: import java.util.Properties; import kafka.javaapi.producer.Producer; import kafka.produce ...

  3. storm消费kafka实现实时计算

    大致架构 * 每个应用实例部署一个日志agent * agent实时将日志发送到kafka * storm实时计算日志 * storm计算结果保存到hbase storm消费kafka 创建实时计算项 ...

  4. 2018.5.12 storm数据源kafka堆积

    问题现象: storm代码依赖4个源数据topic,2018.5.12上午8点左右开始收到告警短信,源头的4个topic数据严重堆积. 排查: 1.查看stormUI, storm拓扑结构如下: 看现 ...

  5. storm集成kafka的应用,从kafka读取,写入kafka

    storm集成kafka的应用,从kafka读取,写入kafka by 小闪电 0前言 storm的主要作用是进行流式的实时计算,对于一直产生的数据流处理是非常迅速的,然而大部分数据并不是均匀的数据流 ...

  6. storm和kafka整合

    storm和kafka整合 依赖 <dependency> <groupId>org.apache.storm</groupId> <artifactId&g ...

  7. Storm 学习之路(九)—— Storm集成Kafka

    一.整合说明 Storm官方对Kafka的整合分为两个版本,官方说明文档分别如下: Storm Kafka Integration : 主要是针对0.8.x版本的Kafka提供整合支持: Storm ...

  8. Storm 系列(九)—— Storm 集成 Kafka

    一.整合说明 Storm 官方对 Kafka 的整合分为两个版本,官方说明文档分别如下: Storm Kafka Integration : 主要是针对 0.8.x 版本的 Kafka 提供整合支持: ...

  9. Storm消费Kafka提交集群运行

    1.创建拓扑,配置KafkaSpout.Bolt KafkaTopologyBasic.java: package org.mort.storm.kafka; import org.apache.ka ...

随机推荐

  1. 电子商务网站的设计与实现(四):项目名称malling和一期开发计划

    项目名称:小雷B2C商城系统代号:malling,mall商城的意思,加个ing表示正在进行.更主要的是与"morning"发音很像,非常容易记忆.morning是"早上 ...

  2. 关于在方法里面使用泛型public static <T> T

    对泛型的理解一直处于模糊的状态,所以今天就专门看了看泛型,看到了如下的一段代码,网上没有找到相应的解释. 然后尝试着自己理解了一下,第一次写博客,手比较生. 现在就开始来写我的理解. 看到这个方法的第 ...

  3. TensorFlow 学习(十一)—— 正则(regularizer)

    正则作用的对象是目标函数,如图对均方误差使用 ℓ2 正则: loss = tf.reduce_mean(tf.square(y-y_) + tf.contrib.layers.l2_regulariz ...

  4. scala map的常用操作

    package cn.scala_base /** * map常用操作 */ object Map { def main(args: Array[String]): Unit = { //1.不可变m ...

  5. hadoop 3.x 配置历史服务器

    修改$HADOOP_HOME/etc/hadoop/mapred-site.xml,加入以下配置(修改主机名为你自己的主机或IP,尽量不要使用中文注释) <!--history address- ...

  6. Qt 元对象系统(Meta-Object System)(不管是否使用信号槽,都推荐使用)

    Qt 元对象系统(Meta-Object System) Qt的元对象系统基于如下三件事情: 类:QObject,为所有需要利用原对象系统的对象提供了一个基类. 宏:Q_OBJECT,通常可以声明在类 ...

  7. List&lt;Map&lt;String, String&gt;&gt; 开启 Map&lt;String, List&lt;String&gt;&gt;

    将List变成Map结构体,下面的文字是没有水平! 写作方法传送前土壤很长一段时间.我不知道有没有好的解决办法.我们也希望提供! Map<String, String> map1 = ne ...

  8. 通过javacv对视频每隔1秒钟截取1张图片

    Exception in thread "main" java.lang.NoClassDefFoundError: Could not initialize class org. ...

  9. 《modern operating system》 chapter 5 Input and output 注意事项

    Input / Output It should also provide an interface between the devices and the rest of the system th ...

  10. OpenSSL 使用 base64 编码/解码(liang19890820)

    关于 OpenSSL 的介绍及安装请参见:Windows 下编译 OpenSSL 下面主要介绍有关 OpenSSL 使用 base64 编码/解码. 简述 编码解码 更多参考 编码/解码 #inclu ...