这个是在window环境下面安装的kafka

  • 下载pom依赖

      <dependency>
    <groupId>org.apache.storm</groupId>
    <artifactId>storm-kafka-client</artifactId>
    <version>1.1.1</version>
    </dependency>
    <dependency>
    <groupId>org.apache.kafka</groupId>
    <artifactId>kafka-clients</artifactId>
    <version>0.10.0.0</version>
    </dependency>
    <dependency>
    <groupId>org.apache.storm</groupId>
    <artifactId>storm-core</artifactId>
    <version>1.1.1</version>
    <!-- 本地测试注释集群运行打开 -->
    <!-- <scope>provided</scope>-->
    </dependency>

编写代码

  • 编写SplitSentenceBolt

    public class SplitSentenceBolt extends BaseRichBolt {

    private OutputCollector collector;

    	@Override
    public void prepare(Map map, TopologyContext topologyContext, OutputCollector outputCollector) {
    this.collector=outputCollector;
    } @Override
    public void execute(Tuple tuple) {
    //String sentece = tuple.getStringByField("sentence");
    String sentece=tuple.getString(4);
    String[] words = sentece.split(" ");
    for (String word:words){
    collector.emit(new Values(word));
    }
    } @Override
    public void declareOutputFields(OutputFieldsDeclarer outputFieldsDeclarer) {
    outputFieldsDeclarer.declare(new Fields("words"));
    }
    }
  • 编写WordCountBolt

    public class WordCountBolt extends BaseRichBolt {

    	private  OutputCollector collector;
    private HashMap<String,Long> counts =null; @Override
    public void prepare(Map map, TopologyContext topologyContext, OutputCollector outputCollector) {
    this.collector = outputCollector;
    this.counts = new HashMap<>();
    } @Override
    public void execute(Tuple tuple) {
    String word = tuple.getStringByField("words");
    // String word =tuple.getString(0);
    Long count=this.counts.get(word);
    if(count==null){
    count=0L;
    }
    count++;
    //出现就添加到map中,word相同的,会覆盖掉 所以最后的word就是准确的数据
    this.counts.put(word,count);
    this.collector.emit(new Values(word,count));
    } @Override
    public void declareOutputFields(OutputFieldsDeclarer outputFieldsDeclarer) {
    outputFieldsDeclarer.declare(new Fields("word","count"));
    }
    }
  • 编写ReportBolt

    public class ReportBolt extends BaseRichBolt {

    private HashMap<String,Long> counts=null;

    @Override

    public void prepare(Map map, TopologyContext topologyContext, OutputCollector outputCollector) {

    this.counts=new HashMap<String,Long>();

    }

    	@Override
    public void execute(Tuple input) {
    String word=input.getStringByField("word");
    Long count=input.getLongByField("count");
    this.counts.put(word, count); System.out.println("--------FINAL COUNTS--------");
    List<String> keys=new ArrayList<String>();
    keys.addAll(this.counts.keySet());
    Collections.sort(keys);
    for(String key:keys){
    System.out.println(key+":"+this.counts.get(key));
    }
    System.out.println("----------------------------");
    } @Override
    public void declareOutputFields(OutputFieldsDeclarer outputFieldsDeclarer) { }
    }
  • 编写Topology

    public class MainTopology {

    public static void main(String[] args)throws Exception {

    TopologyBuilder builder = new TopologyBuilder();

    KafkaSpoutConfig.Builder<String, String> kafkabuilder = KafkaSpoutConfig.builder("localhost:9092", "test");

    		//设置kafka属于哪个组
    kafkabuilder.setGroupId("testgroup");
    //创建kafkaspoutConfig
    KafkaSpoutConfig<String, String> build = kafkabuilder.build();
    //通过kafkaspoutconfig获取kafkaspout
    KafkaSpout<String, String> kafkaSpout = new KafkaSpout<>(build);
    //设置四个线程接收数据
    builder.setSpout("kafkaspout",kafkaSpout,4);
    // builder.setBolt("printBolt", new PrintBolt(),2).localOrShuffleGrouping("kafkaspout"); builder.setBolt("split-bolt",new SplitSentenceBolt(),2).setNumTasks(4).shuffleGrouping("kafkaspout");
    // 有时候我们需要将特定数据的tuple路由到特殊的bolt实例中,在此我们使用fieldsGrouping
    // 来保证所有"word"字段值相同的tuple会被路由到同一个WordCountBolt实例中
    builder.setBolt("count-bolt",new WordCountBolt(),2).fieldsGrouping("split-bolt",new Fields("words"));
    builder.setBolt("report-bolt",new ReportBolt()).globalGrouping("count-bolt"); Config config=new Config();
    config.setDebug(false);
    config.setNumWorkers(2);
    LocalCluster cluster =new LocalCluster();
    cluster.submitTopology("kafkaspout",config,builder.createTopology()); }

storm和kafka的wordCount的更多相关文章

  1. Storm集成Kafka应用的开发

    我们知道storm的作用主要是进行流式计算,对于源源不断的均匀数据流流入处理是非常有效的,而现实生活中大部分场景并不是均匀的数据流,而是时而多时而少的数据流入,这种情况下显然用批量处理是不合适的,如果 ...

  2. storm集成kafka

    kafkautil: import java.util.Properties; import kafka.javaapi.producer.Producer; import kafka.produce ...

  3. storm消费kafka实现实时计算

    大致架构 * 每个应用实例部署一个日志agent * agent实时将日志发送到kafka * storm实时计算日志 * storm计算结果保存到hbase storm消费kafka 创建实时计算项 ...

  4. 2018.5.12 storm数据源kafka堆积

    问题现象: storm代码依赖4个源数据topic,2018.5.12上午8点左右开始收到告警短信,源头的4个topic数据严重堆积. 排查: 1.查看stormUI, storm拓扑结构如下: 看现 ...

  5. storm集成kafka的应用,从kafka读取,写入kafka

    storm集成kafka的应用,从kafka读取,写入kafka by 小闪电 0前言 storm的主要作用是进行流式的实时计算,对于一直产生的数据流处理是非常迅速的,然而大部分数据并不是均匀的数据流 ...

  6. storm和kafka整合

    storm和kafka整合 依赖 <dependency> <groupId>org.apache.storm</groupId> <artifactId&g ...

  7. Storm 学习之路(九)—— Storm集成Kafka

    一.整合说明 Storm官方对Kafka的整合分为两个版本,官方说明文档分别如下: Storm Kafka Integration : 主要是针对0.8.x版本的Kafka提供整合支持: Storm ...

  8. Storm 系列(九)—— Storm 集成 Kafka

    一.整合说明 Storm 官方对 Kafka 的整合分为两个版本,官方说明文档分别如下: Storm Kafka Integration : 主要是针对 0.8.x 版本的 Kafka 提供整合支持: ...

  9. Storm消费Kafka提交集群运行

    1.创建拓扑,配置KafkaSpout.Bolt KafkaTopologyBasic.java: package org.mort.storm.kafka; import org.apache.ka ...

随机推荐

  1. js进阶 9-16 如何实现多选框全选和取消

    js进阶 9-16 如何实现多选框全选和取消 一.总结 一句话总结:选择取到每一个checkbox的值,然后赋值为true或者false就好. 1.如何实现多选框全选和取消? 选择取到每一个check ...

  2. 关于在方法里面使用泛型public static <T> T

    对泛型的理解一直处于模糊的状态,所以今天就专门看了看泛型,看到了如下的一段代码,网上没有找到相应的解释. 然后尝试着自己理解了一下,第一次写博客,手比较生. 现在就开始来写我的理解. 看到这个方法的第 ...

  3. POJ 1985 - 树的直径

    传送门 题目大意 给一颗n个点的树,求树的直径(最长的一条链) 题解 先随便找一个点u,dfs出离它最远的点v 于是有以下情况: 直径就是这条链 直径经过u,是这条链的延长 直径不经过u 只需要从v再 ...

  4. ajax的跨域请求问题:减少options请求

    服务器端在Response Headers里添加字段Access-Control-Max-Age: 86400 , "Access-Control-Max-Age"表明在86400 ...

  5. Android中WebView的相关使用

    近期做的项目中,遇到个非常棘手的问题: 客户给我的数据是有限制的,因此,在返回某条详细页面内容的时候,他仅仅能给我一个html片段,里面包括 文字,图片以及附件的下载地址.假设网页模版规范的爱比較好说 ...

  6. Information centric network (icn) node based on switch and network process using the node

    The present invention relates to an apparatus for supporting information centric networking. An info ...

  7. 图像处理结果的度量 —— SNR、PSNR、SSIM

    衡量两幅图像的相似度: SNR/PSNR SSIM 1. SNR vs PSNR about SNR 和 PSNR MSE:mean squared error ∑x=1Nx∑y=1Ny(f(x,y) ...

  8. python中的验证码识别库PyTesser

    PyTesser PyTesser is an Optical Character Recognition module for Python. It takes as input an image ...

  9. WPF范围选择控件(RangeSelector)

    原文:WPF范围选择控件(RangeSelector) 版权声明:本文为博主原创文章,转载请注明作者和出处 https://blog.csdn.net/ZZZWWWPPP11199988899/art ...

  10. WPF 实现水纹效果

    原文:WPF 实现水纹效果 鼠标滑过产生水纹,效果图如下:     XMAL就放置了一个img标签   后台主要代码 窗体加载: private void Window_Loaded(object s ...