Kafka配置(注意log.dirs不要配置在tmp目录下,因为该目录会被linux定时任务删除,会导致kafka崩溃)
需要三个Kafka实例,分别安装在下面三个机器上:
192.168.240.167
192.168.240.168
192.168.240.169

第一步,修改192.168.240.167机器上的Kafka配置
config/server.properties:
broker.id=1
listeners=PLAINTEXT://192.168.240.167:9093 这里必须加上IP或者HOST,否则上报到ZK的地址会变成127.0.0.1
num.partitions=10 默认分区数量需要估算,一般是一个进程占用一个partition
zookeeper.connect=192.168.240.167:2181,192.168.240.168:2181,192.168.240.169:2181

第二步,修改192.168.240.168机器上的Kafka配置
config/server.properties:
broker.id=2
listeners=PLAINTEXT://192.168.240.168:9093 这里必须加上IP或者HOST,否则上报到ZK的地址会变成127.0.0.1
num.partitions=10 默认分区数量需要估算,一般是一个进程占用一个partition
zookeeper.connect=192.168.240.167:2181,192.168.240.168:2181,192.168.240.169:2181

第三步,修改192.168.240.169机器上的Kafka配置
config/server.properties:
broker.id=3
listeners=PLAINTEXT://192.168.240.169:9093 这里必须加上IP或者HOST,否则上报到ZK的地址会变成127.0.0.1
num.partitions=10 默认分区数量需要估算,一般是一个进程占用一个partition
zookeeper.connect=192.168.240.167:2181,192.168.240.168:2181,192.168.240.169:2181

第四步,启动Kafka进程
三台机器分别进入Kafka根目录,运行:
nohup bin/kafka-server-start.sh config/server.properties > kafka.out &

第五步,创建Topic
进入任意一台机器上的Kafka根目录,运行:
bin/kafka-topics.sh --create --zookeeper 192.168.240.167:2181,192.168.240.168:2181,192.168.240.169:2181 --replication-factor 1 --partitions 10 --topic threebody.core
bin/kafka-topics.sh --create --zookeeper 192.168.240.167:2181,192.168.240.168:2181,192.168.240.169:2181 --replication-factor 1 --partitions 10 --topic threebody.match
bin/kafka-topics.sh --create --zookeeper 192.168.240.167:2181,192.168.240.168:2181,192.168.240.169:2181 --replication-factor 1 --partitions 10 --topic threebody.battle
bin/kafka-topics.sh --create --zookeeper 192.168.240.167:2181,192.168.240.168:2181,192.168.240.169:2181 --replication-factor 1 --partitions 10 --topic threebody.monitor

查看Topic信息
bin/kafka-topics.sh --describe --zookeeper 192.168.240.167:2181,192.168.240.168:2181,192.168.240.169:2181 --topic threebody.core

kafka 配置启动的更多相关文章

  1. kafka配置监控和消费者测试

    概念 运维 配置 监控 生产者与消费者 流处理 分区partition 一定条件下,分区数越多,吞吐量越高.分区也是保证消息被顺序消费的基础,kafka只能保证一个分区内消息的有序性 副本 每个分区有 ...

  2. hadoop生态搭建(3节点)-08.kafka配置

    如果之前没有安装jdk和zookeeper,安装了的请直接跳过 # https://www.oracle.com/technetwork/java/javase/downloads/java-arch ...

  3. Kafka配置信息

    Kafka配置信息 broker配置信息 属性 默认值 描述 broker.id 必填参数,broker的唯一标识 log.dirs /tmp/kafka-logs Kafka数据存放的目录.可以指定 ...

  4. windows下kafka配置入门 示例

    实验平台与软件: 操作系统:windows7 32  位 java 开发包: jdk1.8.0_144 集群: zookeeper-3.3.6 消息队列: kafka_2.11-0.11.0.1 安装 ...

  5. windows下配置启动多个mysql服务

    查找配置做下记录 先安装mysql5.6,安装不在介绍 接下来配置启动另一个mysql服务, 1:先到服务里停止在运行的mysql服务 2:到mysql的安装目录下(默认安装目录在c:\Program ...

  6. ibatis动态sql配置启动时提示:The content of elements must consist of well-formed character data...

    ibatis动态sql配置启动时提示:The content of elements must consist of well-formed character data... 2012-07-18 ...

  7. 5.4.2 使用配置启动firefox

    1.使用firefox的本地配置加载浏览器 使用本地配置加载浏览器,代码如下. 这样运行后,可以看到firebug等插件都已启动. 练习:假设做性能测试时,需要获取某个状况下的页面网络运行参数.要求完 ...

  8. HBase配置&启动脚本分析

    本文档基于hbase-0.96.1.1-cdh5.0.2,对HBase配置&启动脚本进行分析 date:2016/8/4 author:wangxl HBase配置&启动脚本分析 剔除 ...

  9. Spark配置&启动脚本分析

    本文档基于Spark2.0,对spark启动脚本进行分析. date:2016/8/3 author:wangxl Spark配置&启动脚本分析 我们主要关注3类文件,配置文件,启动脚本文件以 ...

随机推荐

  1. SpringBoot在Kotlin中的实现(一)

    本节记录如何用Kotlin初步搭建一个SpringBoot的环境(使用Gradle自动化构建工具). 1.新建一个Gradle的Kotlin 配置完成后,build.gradle的配置如下: buil ...

  2. Postgresql ERROR: permission denied for relation app_info

    启用终端,: 进入mydb数据库:\c mydb 然后给当前数据库的角色赋予权限:GRANT ALL PRIVILEGES ON TABLE 表名  TO 角色名;

  3. Linux常用操作分享

    Java开发经常遇到的linux相关操作 1.常用的上传下载(Xshell5) 1).get 从远程服务器上下载一个文件存放到本地,如下: 先通过lcd切换到本地那个目录下,然后通过get file ...

  4. 事件驱动架构 (Event-Driven Architecture,EDA) 简介

    EDA 是一种侧重于以生成/消费为基础的异步通信的架构模式.这主要对照于传统的基于线程的同步系统. EDA 是一种以事件 (event)为核心,提供事件产生,路由,消费已经结果回调等机制的架构模式. ...

  5. 寻找cost函数最小值:梯度下降与最小二乘法

    Editted by MarkDown 寻找cost函数最小值:梯度下降与最小二乘法 参考:最小二乘法小结--刘建平 背景: 目标函数 = Σ(观测值-理论值)2 观测值就是我们的多组样本,理论值就是 ...

  6. 1.正则re

    正则 :规则表达式 一般在匹配非结构化的数据时用的比较多,结构化的数据一般用xpath,bs4.但具体使用起来都是视情况而定,相对而言.正则规则平时涉及最多也就是匹配邮箱,电话,及特殊字符串.规则相对 ...

  7. py库: pymysql、 json (mysql数据库)

    数据库查询结果,用json返回: #连接数据库 import pymysql print(pymysql.VERSION) conn = pymysql.Connect(host='localhost ...

  8. mybatis一(常用配置信息和获取插入后id)

    <!--配置文件--><?xml version="1.0" encoding="UTF-8" ?> <!DOCTYPE conf ...

  9. mysql高级聚合

    GROUP_CONCAT() 函数的值等于属于一个组的指定列的所有值,以逗号隔开,并且以字符串表示 mysql> select sex,group_concat(level) from role ...

  10. scrapy中deferred的回调

    def _next_request_from_scheduler(self, spider):#在引擎中处理一个请求 slot = self.slot request = slot.scheduler ...