kafka 配置启动
Kafka配置(注意log.dirs不要配置在tmp目录下,因为该目录会被linux定时任务删除,会导致kafka崩溃)
需要三个Kafka实例,分别安装在下面三个机器上:
192.168.240.167
192.168.240.168
192.168.240.169
第一步,修改192.168.240.167机器上的Kafka配置
config/server.properties:
broker.id=1
listeners=PLAINTEXT://192.168.240.167:9093 这里必须加上IP或者HOST,否则上报到ZK的地址会变成127.0.0.1
num.partitions=10 默认分区数量需要估算,一般是一个进程占用一个partition
zookeeper.connect=192.168.240.167:2181,192.168.240.168:2181,192.168.240.169:2181
第二步,修改192.168.240.168机器上的Kafka配置
config/server.properties:
broker.id=2
listeners=PLAINTEXT://192.168.240.168:9093 这里必须加上IP或者HOST,否则上报到ZK的地址会变成127.0.0.1
num.partitions=10 默认分区数量需要估算,一般是一个进程占用一个partition
zookeeper.connect=192.168.240.167:2181,192.168.240.168:2181,192.168.240.169:2181
第三步,修改192.168.240.169机器上的Kafka配置
config/server.properties:
broker.id=3
listeners=PLAINTEXT://192.168.240.169:9093 这里必须加上IP或者HOST,否则上报到ZK的地址会变成127.0.0.1
num.partitions=10 默认分区数量需要估算,一般是一个进程占用一个partition
zookeeper.connect=192.168.240.167:2181,192.168.240.168:2181,192.168.240.169:2181
第四步,启动Kafka进程
三台机器分别进入Kafka根目录,运行:
nohup bin/kafka-server-start.sh config/server.properties > kafka.out &
第五步,创建Topic
进入任意一台机器上的Kafka根目录,运行:
bin/kafka-topics.sh --create --zookeeper 192.168.240.167:2181,192.168.240.168:2181,192.168.240.169:2181 --replication-factor 1 --partitions 10 --topic threebody.core
bin/kafka-topics.sh --create --zookeeper 192.168.240.167:2181,192.168.240.168:2181,192.168.240.169:2181 --replication-factor 1 --partitions 10 --topic threebody.match
bin/kafka-topics.sh --create --zookeeper 192.168.240.167:2181,192.168.240.168:2181,192.168.240.169:2181 --replication-factor 1 --partitions 10 --topic threebody.battle
bin/kafka-topics.sh --create --zookeeper 192.168.240.167:2181,192.168.240.168:2181,192.168.240.169:2181 --replication-factor 1 --partitions 10 --topic threebody.monitor
查看Topic信息
bin/kafka-topics.sh --describe --zookeeper 192.168.240.167:2181,192.168.240.168:2181,192.168.240.169:2181 --topic threebody.core
kafka 配置启动的更多相关文章
- kafka配置监控和消费者测试
概念 运维 配置 监控 生产者与消费者 流处理 分区partition 一定条件下,分区数越多,吞吐量越高.分区也是保证消息被顺序消费的基础,kafka只能保证一个分区内消息的有序性 副本 每个分区有 ...
- hadoop生态搭建(3节点)-08.kafka配置
如果之前没有安装jdk和zookeeper,安装了的请直接跳过 # https://www.oracle.com/technetwork/java/javase/downloads/java-arch ...
- Kafka配置信息
Kafka配置信息 broker配置信息 属性 默认值 描述 broker.id 必填参数,broker的唯一标识 log.dirs /tmp/kafka-logs Kafka数据存放的目录.可以指定 ...
- windows下kafka配置入门 示例
实验平台与软件: 操作系统:windows7 32 位 java 开发包: jdk1.8.0_144 集群: zookeeper-3.3.6 消息队列: kafka_2.11-0.11.0.1 安装 ...
- windows下配置启动多个mysql服务
查找配置做下记录 先安装mysql5.6,安装不在介绍 接下来配置启动另一个mysql服务, 1:先到服务里停止在运行的mysql服务 2:到mysql的安装目录下(默认安装目录在c:\Program ...
- ibatis动态sql配置启动时提示:The content of elements must consist of well-formed character data...
ibatis动态sql配置启动时提示:The content of elements must consist of well-formed character data... 2012-07-18 ...
- 5.4.2 使用配置启动firefox
1.使用firefox的本地配置加载浏览器 使用本地配置加载浏览器,代码如下. 这样运行后,可以看到firebug等插件都已启动. 练习:假设做性能测试时,需要获取某个状况下的页面网络运行参数.要求完 ...
- HBase配置&启动脚本分析
本文档基于hbase-0.96.1.1-cdh5.0.2,对HBase配置&启动脚本进行分析 date:2016/8/4 author:wangxl HBase配置&启动脚本分析 剔除 ...
- Spark配置&启动脚本分析
本文档基于Spark2.0,对spark启动脚本进行分析. date:2016/8/3 author:wangxl Spark配置&启动脚本分析 我们主要关注3类文件,配置文件,启动脚本文件以 ...
随机推荐
- SpringBoot在Kotlin中的实现(一)
本节记录如何用Kotlin初步搭建一个SpringBoot的环境(使用Gradle自动化构建工具). 1.新建一个Gradle的Kotlin 配置完成后,build.gradle的配置如下: buil ...
- Postgresql ERROR: permission denied for relation app_info
启用终端,: 进入mydb数据库:\c mydb 然后给当前数据库的角色赋予权限:GRANT ALL PRIVILEGES ON TABLE 表名 TO 角色名;
- Linux常用操作分享
Java开发经常遇到的linux相关操作 1.常用的上传下载(Xshell5) 1).get 从远程服务器上下载一个文件存放到本地,如下: 先通过lcd切换到本地那个目录下,然后通过get file ...
- 事件驱动架构 (Event-Driven Architecture,EDA) 简介
EDA 是一种侧重于以生成/消费为基础的异步通信的架构模式.这主要对照于传统的基于线程的同步系统. EDA 是一种以事件 (event)为核心,提供事件产生,路由,消费已经结果回调等机制的架构模式. ...
- 寻找cost函数最小值:梯度下降与最小二乘法
Editted by MarkDown 寻找cost函数最小值:梯度下降与最小二乘法 参考:最小二乘法小结--刘建平 背景: 目标函数 = Σ(观测值-理论值)2 观测值就是我们的多组样本,理论值就是 ...
- 1.正则re
正则 :规则表达式 一般在匹配非结构化的数据时用的比较多,结构化的数据一般用xpath,bs4.但具体使用起来都是视情况而定,相对而言.正则规则平时涉及最多也就是匹配邮箱,电话,及特殊字符串.规则相对 ...
- py库: pymysql、 json (mysql数据库)
数据库查询结果,用json返回: #连接数据库 import pymysql print(pymysql.VERSION) conn = pymysql.Connect(host='localhost ...
- mybatis一(常用配置信息和获取插入后id)
<!--配置文件--><?xml version="1.0" encoding="UTF-8" ?> <!DOCTYPE conf ...
- mysql高级聚合
GROUP_CONCAT() 函数的值等于属于一个组的指定列的所有值,以逗号隔开,并且以字符串表示 mysql> select sex,group_concat(level) from role ...
- scrapy中deferred的回调
def _next_request_from_scheduler(self, spider):#在引擎中处理一个请求 slot = self.slot request = slot.scheduler ...