创建topic,指定备份分区数

bin/kafka-topics.sh --create --zookeeper zk:2181 --replication-factor 2 --partitions 4 --topic test-topic

查看topic

查看topic列表

bin/kafka-topics.sh --zookeeper zk:2181–list

查看topic分区情况

bin/kafka-topics.sh --zookeeper zk:2181 --describe

指定topic

bin/kafka-topics.sh --zookeeper zk:2181 --describe --topic test-topic

创建producer

bin/kafka-console-producer.sh --broker-list broker:9092 --topic test-topic

创建consumer

bin/kafka-console-consumer.sh --zookeeper zk:2181 --topic test-topic

bin/kafka-console-consumer.sh --zookeeper zk:2181 --topic test-topic --from-beginning

新生产者(支持0.9版本+)

bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test --producer.config config/producer.properties

新消费者(支持0.9版本+)

bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --new-consumer --from-beginning --consumer.config config/consumer.properties

修改主题分区

./kafka-topics.sh --zookeeper zk:2181 --alter --topic TEST_16 --partitions 16

修改主题参数

修改保存时间

bin/kafka-topics.sh --zookeeper zk:2181 -topic test--alter --config retention.ms=86400000

基于0.8.0版本。

重新分配分区kafka-reassign-partitions.sh

这个命令可以分区指定到想要的--broker-list上 bin/kafka-reassign-partitions.sh --topics-to-move-json-file topics-to-move.json --broker-list "171" --zookeeper 192.168.197.170:2181,192.168.197.171:2181 --execute cat topic-to-move.json {"topics": [{"topic": "test2"}], "version":1 }

为Topic增加 partition数目kafka-add-partitions.sh

bin/kafka-add-partitions.sh --topic test --partition 2 --zookeeper 192.168.197.170:2181,192.168.197.171:2181 (为topic test增加2个分区)

手动均衡topic

bin/kafka-preferred-replica-election.sh --zookeeper 192.168.197.170:2181,192.168.197.171:2181 --path-to-json-file preferred-click.json

cat preferred-click.json

{ "partitions": [ {"topic": "click", "partition": 0}, {"topic": "click", "partition": 1}, {"topic": "click", "partition": 2}, {"topic": "click", "partition": 3}, {"topic": "click", "partition": 4}, {"topic": "click", "partition": 5}, {"topic": "click", "partition": 6}, {"topic": "click", "partition": 7}, {"topic": "play", "partition": 0}, {"topic": "play", "partition": 1}, {"topic": "play", "partition": 2}, {"topic": "play", "partition": 3}, {"topic": "play", "partition": 4}, {"topic": "play", "partition": 5}, {"topic": "play", "partition": 6}, {"topic": "play", "partition": 7}

] }

分区迁移,扩容

cat > increase-replication-factor.json <<EOF {"version":1, "partitions":[ {"topic":"__consumer_offsets","partition":0,"replicas":[0,1]}, {"topic":"__consumer_offsets","partition":1,"replicas":[0,1]}, {"topic":"__consumer_offsets","partition":2,"replicas":[0,1]}, {"topic":"__consumer_offsets","partition":3,"replicas":[0,1]}] } EOF

执行

bin/kafka-reassign-partitions.sh --zookeeper localhost:2181 --reassignment-json-file increase-replication-factor.json --execute

验证

bin/kafka-reassign-partitions.sh --zookeeper localhost:2181 --reassignment-json-file increase-replication-factor.json --verify

0.8版本查询offset信息

bin/kafka-run-class.sh kafka.tools.ConsumerOffsetChecker --zookeeper zk:2181 --group test--topic test

新消费者列表查询(支持0.9版本+)

bin/kafka-consumer-groups.sh --new-consumer --bootstrap-server localhost:9092 --list

显示某个消费组的消费详情(仅支持offset存储在zookeeper上的)

bin/kafka-run-class.sh kafka.tools.ConsumerOffsetChecker --zookeeper localhost:2181 --group test

显示某个消费组的消费详情(支持0.9版本+)

bin/kafka-consumer-groups.sh --new-consumer --bootstrap-server localhost:9092 --describe --group test-consumer-group

平衡leader

bin/kafka-preferred-replica-election.sh --zookeeper zk_host:port/chroot

kafka自带压测命令

bin/kafka-producer-perf-test.sh --topic test --num-records 100 --record-size 1 --throughput 100 --producer-props bootstrap.servers=localhost:9092

broker配置项 默认值 推荐值 示例 说明
broker.id null null broker.id=1 当前broker的id,集群内互异
host.name null null host.name=10.10.10.10 broker的主机地址,若有配置,会绑定到该地址,若没有,会绑定到所有的地址
0.10版本引入listeners配置,若listeners有配置,该项不生效
port 9092 9092 port=9092 broker监听端口
0.10版本引入listeners配置,若listeners有配置,该项不生效
listeners "" PLAINTEXT://10.10.10.10:9092 listeners=PLAINTEXT://10.10.10.10:9092 服务监听配置
auto.create.topics.enable true false auto.create.topics.enable=false 允许自动创建主题
auto.leader.rebalance.enable true true auto.leader.rebalance.enable=true 后台定期自动重分配leader
default.replication.factor 1 3 default.replication.factor=3 默认副本数,同时也决定了集群所有主题均可以正常使用的允许的宕机台数为N-1(N为配置值)
delete.topic.enable true true delete.topic.enable=true 允许删除主题
group.initial.rebalance.delay.ms 3000 3000 group.initial.rebalance.delay.ms=3000 消费组内各节点第一次启动的负载均衡分配等待时间,配置越大意味着重新平衡次数越少,但会增加等待时间
log.cleaner.enable true true log.cleaner.enable=true 清理策略定义的过期数据日志
log.dirs null pathtokafka/kafka-instance-logs log.dirs=/app/kafka/kafka-test-logs kafka数据日志目录
log.flush.interval.messages 9223372036854775807 20000(根据实际业务情况配置) log.flush.interval.messages=20000 将分区消息刷到磁盘的消息量
log.flush.interval.ms =log.flush.scheduler.interval.ms=9223372036854775807 300000 log.flush.interval.ms=300000 将消息刷到磁盘的时间间隔
log.retention.check.interval.ms 300000 600000 log.retention.check.interval.ms=600000 失效数据日志检查间隔
log.retention.hours 168 72 log.retention.hours=72 数据保留时间
log.segment.bytes 1073741824 1073741824 log.segment.bytes=1073741824 单个数据文件大小
num.io.threads 8 8 num.io.threads=8 服务器用于处理请求的线程数,包括磁盘I/O,可根据核数适当增加
num.network.threads 3 8 num.network.threads=8 处理网络请求的线程数,主要用于读写缓冲区数据,一般不需要太大,可根据核数适当增加
num.partitions 1 4 num.partitions=4 默认主题分区数
num.recovery.threads.per.data.dir 1 16(各目录总和核数一半左右) num.recovery.threads.per.data.dir=16 宕机后恢复数据,清理数据的线程数,比较消耗CPU
num.replica.fetchers 1 8 num.replica.fetchers=8 数据同步线程数
socket.receive.buffer.bytes 102400 1048576 socket.receive.buffer.bytes=1048576 socket的接收缓冲区 (SO_RCVBUF)
socket.send.buffer.bytes 102400 1048576 socket.send.buffer.bytes=1048576 socket的发送缓冲区(SO_SNDBUF)
socket.request.max.bytes 104857600 104857600 socket.request.max.bytes=104857600 socket请求的最大字节数
transaction.state.log.min.isr 1 1 transaction.state.log.min.isr=1 消息提交后返回成功的最小副本数,ISR中副本数
zookeeper.connect "" "" zookeeper.connect=10.10.10.10:2181/kafka/instance zk连接串
zookeeper.connection.timeout.ms =zookeeper.session.timeout.ms=6000 6000 zookeeper.connection.timeout.ms zk连接超时时间

Kafka常用命令及配置文件的更多相关文章

  1. kafka常用命令

    以下是kafka常用命令行总结: 0.查看有哪些主题: ./kafka-topics.sh --list --zookeeper 192.168.0.201:12181 1.查看topic的详细信息 ...

  2. Kafka学习之四 Kafka常用命令

    Kafka常用命令 以下是kafka常用命令行总结: 1.查看topic的详细信息 ./kafka-topics.sh -zookeeper 127.0.0.1:2181 -describe -top ...

  3. nginx学习,看这一篇就够了:下载、安装。使用:正向代理、反向代理、负载均衡。常用命令和配置文件

    前言一.nginx简介1. 什么是 nginx 和可以做什么事情Nginx 是高性能的 HTTP 和反向代理的web服务器,处理高并发能力是十分强大的,能经受高负 载的考验,有报告表明能支持高达 50 ...

  4. [转帖]nginx学习,看这一篇就够了:下载、安装。使用:正向代理、反向代理、负载均衡。常用命令和配置文件

    nginx学习,看这一篇就够了:下载.安装.使用:正向代理.反向代理.负载均衡.常用命令和配置文件 2019-10-09 15:53:47 冯insist 阅读数 7285 文章标签: nginx学习 ...

  5. Kafka常用命令收录

    目录 目录 1 1. 前言 2 2. Broker默认端口号 2 3. 安装Kafka 2 4. 启动Kafka 2 5. 创建Topic 2 6. 列出所有Topic 3 7. 删除Topic 3 ...

  6. Hadoop生态圈-Kafka常用命令总结

    Hadoop生态圈-Kafka常用命令总结 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.管理Kafka服务的命令 1>.开启kafka服务 [yinzhengjie@s ...

  7. Kafka常用命令合集

    在上一篇文章<Linux安装Kafka>中,已经介绍了如何在Linux安装Kafka,以及Kafka的启动/关闭和创建发话题并产生消息和消费消息.这篇文章就介绍介绍Kafka的那些常用的命 ...

  8. linux常用命令及配置文件

    linux常用命令 基于centos 以我自己实际使用情况来说,从最常用的开始开始,大致如下: 1. 基本命令 cd ls ll(ls -l 别名 ) cat vi/vim touch echo mk ...

  9. KVM常用命令及配置文件

    1.查看虚拟机配置文件 [root@KVM tmp]# ls /etc/libvirt/qemu/ damowang.xml networks [root@KVM tmp]# ls /etc/libv ...

随机推荐

  1. 套接字详解(socket)

    用户认为的信息之间传输只是建立以两个应用程序上,实际上在TCP连接中是靠套接字来作为他们连接的桥梁. 那么什么是套接字呢? TCP用主机的IP地址加上主机上的端口号作为TCP连接的端点,这种端点就叫做 ...

  2. 关于nginx配置的一个报错connect() to unix:/tmp/php-cgi.sock failed (2: No such file or directory)

    针对配置php的情况: linux服务器一般提示这个 connect() to unix:/tmp/php-cgi.sock failed (2: No such file or directory) ...

  3. 合并石子(非dp版)

    题:https://ac.nowcoder.com/acm/contest/4137/N 分析:注意题意,收益是a[i]*a[i+1],所以分析得,是∑∑a[i]*a[j] #include<b ...

  4. 拾起HTML+CSS的一天

    今天在w3school看了下HTML5和CSS3的新特性. 本来觉得自己对CSS方面基础还挺有把握的,就之前自学都是跳过这个模块的,但经过昨天会友的面试,感觉自己好像太忽视基础了,很多基本的东西很模糊 ...

  5. ubuntu16.04设置apt 阿里源

    sudo gedit /etc/apt/sources.listdeb http://mirrors.aliyun.com/ubuntu/ trusty main restricted univers ...

  6. 天大IPv6使用指南(老校区)

    天津大学是CERNET地区网络中心和地区主结点之一,提供良好的IPv6服务,在老校区最大接入宽带达到100Mbps,下载资源非常方便. 但是,在天大使用IPv6时,同学们是不是经常出现时断时续的现象呢 ...

  7. 编译原理_P1002

    . 词法分析 1.1 词法记号及属性 词法记号.模式.词法单元 记号名 词法单元列举    模式的非形式描述 if if 字符i,f for for     字符f,o,r relation < ...

  8. 二十九、rsync+inotity实时监控同步工具

    一.场景应用:                                    客户通过url访问资源(查询,下载等),并发量是非常高的,所以运用负载均衡分担web服务器的压力,在后端连接不同的 ...

  9. Estimating Gene Frequencies| method of maximum likelihood|point estimate

    I.11 Estimating Gene Frequencies 在小样本上计算基因A的概率PA,举例如下: 通过加大样本会将通过观察值得到的数趋近于真实数据,所以该问题转化为了统计学上利用大量观察值 ...

  10. 阿里巴巴IconFont的使用方式

    一.解释一下为什么要使用IconFont? IconFont顾名思义就是把图标用字体的方式呈现. 其优点在于以下几个方面: 1.可以通过css的样式改变其颜色:(最霸气的理由) 2.相对于图片来说,具 ...