安装顺序 zookeeper,kafka,storm

install zookeeper

1.上传tar包,解压tar

tar -zxvf   zookeeper-3.4.6.tar.gz

2.复制 zoo_sample.cfg  重命名 zoo.cfg

cp zoo_sample.cfg  zoo.cfg

3.修改zoo.cfg配置文件

dataDir = /usr/local/zk/datadir

dataLogDir = /usr/local/zk/datalogdir

创建目录 /usr/local/zk/datadir , /usr/local/zk/datalogdir

注:/usr/local/ 是我的解压zookeeper存放位置,要根据你的zookeeper目录配置

接着添加zk集群IP地址

4.进入datadir,创建文件myid,并进行编号

5.启动zookeeper,查看日志是否启动成功

bin/zkServer.sh start

tail -f  zookeeper.out

install kafka

1.上传tar包,解压tar包

tar -zxvf  kafka_2.11-0.10.1.0.tgz

2.修改配置文件server.properties

border.id=1   //按顺序进行编号

host.name=192.168.10.2   //当前节点IP

log.dirs=/usr/local/kafka/log   //最好指向解压后的kafka目录内部,方便查看

zookeeper.connect=192.168.10.2:2181,192.168.10.3:2181,192.168.10.4:2181  //zookeeper集群IP:PORT

delete.topic.enable=true

注:把kafka复制到其他节点后,记得修改server.properties中的broker.id和host.name的值。

3.启动各个节点kafka

nohup bin/kafka-server-start.sh config/server.properties  2>&1 &

4.基本操作

创建主题

bin/kafka-topics.sh --create --zookeeper 192.168.10.2:2181,192.168.10.3:2181,192.168.10.4:2181 --replication-factor 1 --partitions 1 --topic test

描述主题

bin/kafka-topics.sh --describe --zookeeper 192.168.10.2:2181,192.168.10.3:2181,192.168.10.4:2181  --topic test

删除主题

bin/kafka-topics.sh --delete --zookeeper 192.168.10.2:2181,192.168.10.3:2181,192.168.10.4:2181  --topic test

生产者

bin/kafka-console-producer.sh --broker-list 192.168.10.2:2181,192.168.10.3:2181,192.168.10.4:2181 --topic test

消费者

bin/kafka-console-consumer.sh --zookeeper 192.168.10.2:2181,192.168.10.3:2181,192.168.10.4:2181 --topic test  --from-beginning

查看消费进度

bin/kafka-run-class.sh   kafka.tools.ConsumerOffsetChecker   --zookeeper  192.168.10.2:2181,192.168.10.3:2181,192.168.10.4:2181  --topic test-group group1

install storm

1.上传tar包,解压tar包

tar -zxvf  storm-1.0.2.tar.gz

2.修改配置文件 conf/storm.yaml

3.启动命令

启动nimbus

nohup bin/storm nimbus >storm.out  2>&1  &    //在主节点上启动

启动supervisor

nohup bin/storm supervisor >storm.out  2>&1  &   //在从节点上启动

启动ui

nohup bin/storm ui >storm.out  2>&1  &  //集群任一节点启动

至此安装完成

zookeeper、kafka、storm install的更多相关文章

  1. AWS EC2 CentOS release 6.5 部署zookeeper、kafka、dubbo

    AWS EC2 CentOS release 6.5 部署zookeeper.kafka.dubbo参考:http://blog.csdn.net/yizezhong/article/details/ ...

  2. scribe、chukwa、kafka、flume日志系统对比

    scribe.chukwa.kafka.flume日志系统对比   1. 背景介绍许多公司的平台每天会产生大量的日志(一般为流式数据,如,搜索引擎的pv,查询等),处理 这些日志需要特定的日志系统,一 ...

  3. redis、kafka、rabittMQ对比

    本文不对三者之间的性能进行对比,只是从三者的特性上区分他们,并指出三者的不用应用场景. 1.publish/subscribe 发布订阅模式如下图所示可以具有多个生产者和发布者,redis.kafka ...

  4. redis、kafka、rabittMQ对比 (转)

    本文不对三者之间的性能进行对比,只是从三者的特性上区分他们,并指出三者的不用应用场景. 1.publish/subscribe 发布订阅模式如下图所示可以具有多个生产者和发布者,redis.kafka ...

  5. 【日志处理、监控ELK、Kafka、Flume等相关资料】

    服务介绍 随着实时分析技术的发展及成本的降低,用户已经不仅仅满足于离线分析.目前我们服务的用户包括微博,微盘,云存储,弹性计算平台等十多个部门的多个产品的日志搜索分析业务,每天处理约32亿条(2TB) ...

  6. elk、kafka、zookeeper 安装

    .elk解释 ELK分别是Elasticsearch.Logstash.Kibana三个开源框架缩写 Elasticsearch 开源分布式搜索引擎,提供存储.分析.搜索功能.特点:分布式.基于rea ...

  7. 大数据组件原理总结-Hadoop、Hbase、Kafka、Zookeeper、Spark

    Hadoop原理 分为HDFS与Yarn两个部分.HDFS有Namenode和Datanode两个部分.每个节点占用一个电脑.Datanode定时向Namenode发送心跳包,心跳包中包含Datano ...

  8. Linux、docker、kubernetes、MySql、Shell、kafka、RabbitMQ运维快餐

    检查端口占用 lsof -i:[port] netstat -anp |grep [port] 监控网络客户TCP连接数 netstat -anp | grep tcp |wc -l 获取某进程中运行 ...

  9. rabbitMQ、activeMQ、zeroMQ、Kafka、Redis 比较

    Kafka作为时下最流行的开源消息系统,被广泛地应用在数据缓冲.异步通信.汇集日志.系统解耦等方面.相比较于RocketMQ等其他常见消息系统,Kafka在保障了大部分功能特性的同时,还提供了超一流的 ...

随机推荐

  1. 像Maven一样构建java项目的目录,更好的管理java工程的源码

    都知道maven具有管理Java或者Javaweb的功能.我个人尤其看中的是其代码层次的分离.不同的代码在不同的文件夹下.这是在eclipse新建一个普通的工程无法实现的.而如果用maven实现有时候 ...

  2. Android Bootloader LittleKernel的两篇文章 【转】

    转自:http://blog.csdn.net/loongembedded/article/details/41747523 2014-12-05 14:37 3599人阅读 评论(2) 收藏 举报 ...

  3. <基督教福音视频>

    <信耶稣还是罪人吗?>全集 http://www.youku.com/playlist_show/id_18458615.html <因信称义>全集 http://www.yo ...

  4. 从零开始学习Android(二)从架构开始说起

    我们刚开始学新东西的时候,往往希望能从一个实例进行入手学习.接下来的系列连载文章也主要是围绕这个实例进行.这个实例原形是从电子书<Android应用开发详解>得到的,我们在这里对其进行详细 ...

  5. 遗传算法在JobShop中的应用研究(part 5:解码)

    解码操作是整个遗传算法最重要的一步,在这步里面我们利用配置文件中的信息将染色体解码成一个有向无环图. 在介绍解码操作之前我们先来看一下配置文件,在part1绪论中我们已经介绍了一个车间调度问题的基本信 ...

  6. Struts 2开发基本流程

    Struts 2工作流程 Struts2是一个基于MVC设计模式的Web开发框架, 正如官网上介绍的那样: ApacheStruts 2 is an elegant, extensible frame ...

  7. mysql 语句的索引和优化

    一.基本语句优化 1.尽量避免在列上进行运算,这样会导致索引失败.例如: select * from table where DATE_FORMAT(`customer_regtime`,'%Y')& ...

  8. Solr内置的字段类型

    字段类型在org.apache.solr.schema包下 Class 描述 BCDIntField 二进制整形字段 BCDLongField 二进制长整形字段 BCDStrField 二进制字符型字 ...

  9. android studio 控制台中文乱码

    解决办法,在java工程目录下的build.gradle添加如下代码,然后重新运行一遍. tasks.withType(JavaCompile) { options.encoding = " ...

  10. chrome的常用快捷键和命令

    常见快捷键 F12 打开Chrome控制台 Ctrl+J 进入"下载内容"页面 Ctrl+H 查看"历史记录"页面 Ctrl+D 将此页加入书签 Ctrl+F ...