Kafka Broker配置
Kafka发行包里自带的配置样本可以用来安装单机服务,但并不能满足大多数安装场景的要求。kafka有很多配置选项,Kafka有很多配置选项,涉及安装和调优的方方面面。不过大多数调优选项可以使用默认配置,除非你对调优有特别的要求。
常规配置和主题配置(服务端的配置文件)
kafka安装包里自带的config目录下有一个名字叫做server.properties的配置文件,这里面的配置项对应的就是标题里说的常规配置和主题配置了。在我的试验环境下,这个文件的绝对路径是:/usr/local/kafka/kafka_2.11-2.0.0/config/server.properties。
#每一个broker都需要一个标识符,使用broker.id来表示。它的默认值是0,也可以被设置成任意其它整数。这个值在整个kafka集群里必须是唯一的。这个值可以任意选定。建议把他们设置成语机器名具有相关性的整数,这样在维护时,将ID号映射到机器名就没有那么麻烦了。
broker.id= #用来监听连接的端口,producer或consumer将在此端口建立连接,修改port可以配置参数可以把它设置成其他任意可用的端口,如果要使用1024以下的端口,需要使用root权限启动kafka,不推荐这么做
port=9092
#用于保存broker元数据的Zookeeper地址是通过zookeeper.connect来指定的,localhost:2181表示这个Zookeeper是运行在本地的2181端口上。该参数配置是用逗号(原书写的是冒号,但是kafka自带的配置文件是用逗号分隔做的示例)分隔的一组hostname:port/path列表,
#每一部分的含义如下:hostname是Zookeeper服务器的机器名或IP地址;
#port是Zookeeper的客户端连接端口
#/path是可选的Zookeeper路径,作为Kafka集群的chroot环境,如果不指定,默认使用根目录,如果指定的chroot路径不存在,broker会在启动的时候创建它。
#chroot在kafka集群里使用chroot路径是一种最佳实践。Zookeeper群组可以共享给其它应用程序,即使还有其它kafka集群存在,也不会产生冲突。最好是在配置文件里指定一组Zookeeper服务器
#用逗号(原书《kafka权威指南》写的是分号)把他们隔开,一旦有一个Zookeeper服务器宕机,broker可以连接到Zookeeper群组的另一个结点上。 zookeeper.connect=zk01:2181,zk02:2181,zk03:2181
#kafka把所有的消息都保存在磁盘上,存放这些日志片段的目录是通过log.dirs指定的。它是一组用逗号分隔的本地文件系统路径。如果指定了多个路径,那么Broker会根据
#“最少使用”原则,把同一个分区的日志片段保存到同一个路径下。要注意,broker会往拥有最好数目分区的路径新增分区,而不是往用于最小磁盘空间的路径新增分区。
log.dirs=/export/servers/logs/kafka
#我们知道segment文件默认会被保留7天的时间,超时的话就
#会被清理,那么清理这件事情就需要有一些线程来做。这里就是
#用来设置恢复和清理data下数据的线程数量
#对以下3种情况,kafka会使用可配置的线程池来处理日志片段
#服务器正常启动,用于打开每个分区的日志片段;
#服务器崩溃后重启,用于检查和截短每个分区的日志片段;
#服务器正常关闭,用于关闭日志片段
#默认情况下,每个日志目录只使用一个线程,因为这些线程只是在服务器启动和关闭时会用到,所以完全可以设置大量的线程来达到并行操作的目的。特别是对于包含大量分区的服务器来说
#一旦发生崩溃,在进行恢复时使用并行操作可能会省下数小时的时间。设置此参数时需要注意,所配置的数字对应的是log.dirs指定的单个目录,也就是说该项配置为8,并且log.dirs被
#指定了3个路径,那么总共需要24个线程
num.recovery.threads.per.data.dir=1
#默认情况下,kafka会在如下情况下自动创建主题:
#当一个生产者开始往主题写入消息时
#当一个消费者开始从主题读取消息时
#当任意一个客户端向主题发送元数据请求时
#很多时候,这些行为都是非预期的,而且,根据kafka协议,如果一个主题不先被创建,根本无法知道它是否已经存在。如果显示的创建主题,不管是手动创建还是通过其它配置系统来创建
#都可以把auto.create.topics.enable设为false
auto.create.topics.enable=true #以上为常规配置
#num.partitions参数指定了新创建的主题将包含多少个分区。如果启用了主题自动创建功能(该功能是默认启用的),主题分区的个数就是该参数指定的值。
#该参数的默认值是1。注意,我们可以增加主题分区的个数,但不能减少分区的个数。所以,如果要让一个主题的分区数个数少于num.partitions指定的值,需要手动创建该主题。
#kafka集群通过分区对主题进行横向扩展,所以当有新的Broker加入集群时,可以通过分区的个数来实现集群负载的均衡。为了能让分区分布到所有broker上,主题分区的个数必须要大于Broker的个数
#拥有大量消息的主题如果要进行负载均衡,就需要大量的分区。分区的大小限制在25GB以内可以得到比较理想的效果
#分区数量的估算可以通过主题每秒钟的吞吐量/消费者每秒钟的吞吐量来进行估算
num.partitions=2
#segment文件保留的最长时间,默认保留7天(168小时),
#超时将被删除,也就是说7天之前的数据将被清理掉。
#Kafka可以根据时间来决定数据可以被保留多久。默认使用log.retention.hours参数来配置时间,默认是168小时。
#除此之外还有其它两个参数log.retention.minutes和log.retention.ms。使用log.retention.ms为宜
#如果指定了不知一个参数,Kafka会优先使用具有最小值的那个参数
#根据时间保留数据是通过检查磁盘上日志片段文件的最后修改时间来实现的。一般来说,最后修改时间指的就是日志片段关闭的时间,也就是文件里最后一个消息的时间戳。
#不过如果使用管理工具在服务器间移动分区,最后修改时间就不准确了,时间误差可能会导致这些分区过多的保留数据
log.retention.hours=168
#log.retention.bytes,这是另一种决定日志片段是否被删除的方式。(这两种方式都是作用在日志片段上的,而不是作用在单个消息上)
#通过保留的消息的字节数来判断是否过期。它的值通过log.retention.bytes来指定,作用在每一个分区上,就是说这个值被设置为了1024,一个主题有8个分区,那么这个主题一共可以保存8K数据
#如果同时指定了log.retention.bytes和log.retention.ms,只要任意一个条件满足,消息就会被删除。
log.retention.bytes=1024
#日志文件中每个segment的大小,默认为1G
#当消息到达broker时,它们被追加到分区的当前日志片段上,当日志片段大小达到log.segment.bytes指定的上限时,当前日志片段就会被关闭,一个新的日志片段被打开。
#如果一个新的日志片段被关闭,就开始等待过期。这个参数的值越小,就会越频繁的关闭和分配新文件,从而降低磁盘写入的整体效率。
#如果主题的消息量不大,那么怎么调整这个参数就非常重要了。
#使用时间戳获取偏移量:日志片段大小会影响使用时间戳获取便宜浪。在使用时间戳获取日志偏移量时,kafka会检查分区里最后修改时间大于指定时间戳的日志片段(已经被关闭而定),
#该日志片段的前一个文件的最后修改时间小于指定时间戳。然后kafka返回该日志片段(也就是文件名)开头的偏移量。对于使用时间戳获取偏移量的操作来说,日志片段越小,结果越准确。
log.segment.bytes=1073741824
#控制日志片段关闭的另一个参数是:log.segment.ms,它指定了多长时间之后日志片段就会被关闭。log.segment.bytes和log.segment.bytes两个参数,哪个条件先达到就使用哪个条件关闭日志片段
#默认情况下log.segment.ms没有设定值,所以只根据大小来关闭日志片段。如果使用基于时间的日志片段,要着重考虑并行关闭多个日志片段对磁盘性能的影响。 #message.max.bytes,broker通过设置message.max.bytes参数来限制单个消息的大小,默认值是1000000,也就是1MB,如果生产者尝试发送的消息超过这个大小,不仅消息不会被接收,
#还会收到broker返回的错误信息。跟其它与字节相关的配置参数一样,该参数指的是压缩后的消息大小,也就是说,只要压缩后消息大小小于message.max.bytes指定的值,消息的实际大小
#可以远大于这个值。这个值对性能有着显著的影响,值越大,那么复杂处理网络连接和请求得到线程就需要花越多的时间处理这些请求。它还会增加磁盘写入块的大小,从而影响IO吞吐量。
#在服务端和客户端之间协调消息大小的配置
#消费者客户端设置的fetch.message.max.bytes必须与服务器端设置的消息大小进行协调。如果这个值比message.max.bytes小,那么消费者就无法读取比较大的消息,导致出现消费者被
#阻塞的情况。在为集群里的broker配置replica.fetch.max.bytes参数时也需要遵守同样的规则。
message.max.bytes=1000000 #以上为主题的默认配置
#处理网络请求的线程数量,也就是接收消息的线程数。
#接收线程会将接收到的消息放到内存中,然后再从内存中写入磁盘。
num.network.threads= #消息从内存中写入磁盘是时候使用的线程数量。
#用来处理磁盘IO的线程数量
num.io.threads= #发送套接字的缓冲区大小
socket.send.buffer.bytes= #接受套接字的缓冲区大小
socket.receive.buffer.bytes= #请求套接字的缓冲区大小
socket.request.max.bytes= #滚动生成新的segment文件的最大时间
log.roll.hours= #上面的参数设置了每一个segment文件的大小是1G,那么
#就需要有一个东西去定期检查segment文件有没有达到1G,
#多长时间去检查一次,就需要设置一个周期性检查文件大小
#的时间(单位是毫秒)。
log.retention.check.interval.ms= #日志清理是否打开
log.cleaner.enable=true
#zookeeper链接超时时间
zookeeper.connection.timeout.ms= #上面我们说过接收线程会将接收到的消息放到内存中,然后再从内存
#写到磁盘上,那么什么时候将消息从内存中写入磁盘,就有一个
#时间限制(时间阈值)和一个数量限制(数量阈值),这里设置的是
#数量阈值,下一个参数设置的则是时间阈值。
#partion buffer中,消息的条数达到阈值,将触发flush到磁盘。
log.flush.interval.messages= #消息buffer的时间,达到阈值,将触发将消息从内存flush到磁盘,
#单位是毫秒。
log.flush.interval.ms= #删除topic需要server.properties中设置delete.topic.enable=true否则只是标记删除
delete.topic.enable=true #此处的host.name为本机IP(重要),如果不改,则客户端会抛出:
#Producer connection to localhost: unsuccessful 错误!
host.name=kafka01 advertised.host.name=192.168.239.128
Kafka Broker配置的更多相关文章
- Kafka broker配置介绍 (四)
这部分内容对了解系统和提高软件性能都有很大的帮助,kafka官网上也给出了比较详细的配置详单,但是我们还是直接从代码来看broker到底有哪些配置需要我们去了解的,配置都有英文注释,所以每一部分是干什 ...
- kafka主要配置
Kafka为broker,producer和consumer提供了很多的配置参数. 了解并理解这些配置参数对于我们使用kafka是非常重要的. 官网配置地址: Configuration 每个kafk ...
- Kafka安装配置
Kafka是由Apache软件基金会开发的一个高吞吐量的分布式发布订阅消息系统,由Scala和Java编写.官网地址:http://kafka.apache.org 0.基本概念 Broker:Kaf ...
- Kafka详细配置
转自:http://blog.csdn.net/suifeng3051/article/details/38321043?utm_source=tuicool&utm_medium=refer ...
- kafka consumer 配置详解
1.Consumer Group 与 topic 订阅 每个Consumer 进程都会划归到一个逻辑的Consumer Group中,逻辑的订阅者是Consumer Group.所以一条message ...
- Structured Streaming + Kafka Integration Guide 结构化流+Kafka集成指南 (Kafka broker version 0.10.0 or higher)
用于Kafka 0.10的结构化流集成从Kafka读取数据并将数据写入到Kafka. 1. Linking 对于使用SBT/Maven项目定义的Scala/Java应用程序,用以下工件artifact ...
- 关于Kafka broker IO的讨论
Apache Kafka是大量使用磁盘和页缓存(page cache)的,特别是对page cache的应用被视为是Kafka实现高吞吐量的重要因素之一.实际场景中用户调整page cache的手段并 ...
- kafka系列七、kafka核心配置
一.producer核心配置 1.acks :发送应答(默认值:1) 生产者在考虑完成请求之前要求leader收到的确认的数量.这控制了发送的记录的持久性.允许以下设置: acks=0:设置为0,则生 ...
- kafka 相关配置
kafka主要配置包括三类:broker configuration,producer configuration and consumer configuration. Broker Config ...
随机推荐
- HDU5996:dingyeye loves stone
题目链接:dingyeye loves stone 题意:给出一棵树,树上的每个节点都有石子若干, 两人博弈,每次操作都可以把任意节点的任意石子数转移到它的父亲节点, 若无法操作则输,给出树上的节点及 ...
- phpstorm最新破解办法(2016-10-30)
还是选择license server.然后复制http://jetbrains.tencent.click/ 这个地址进去就可以啦.不行的时候欢迎留言告知,更新破解方法
- C# DateTime.Now 详解
//2008年4月24日 System.DateTime.Now.ToString("D"); //2008-4-24 System.DateTime.Now.ToString(& ...
- linux下创建用户及组
linux下创建用户及组: 1.创建组 groupadd 组名 2.创建用户,并将用户添加到组 useradd 用户名 -g 组名 3.更改用户的密码 password 用户名 4.修改目录 ...
- Java键盘输入的方法
转载:http://blog.csdn.net/u012249177/article/details/49586383 java输入的方法: import java.io.BufferedReader ...
- ACM二分查找模板
int main(){ == key int m; while ( l <= r ) { m = ( l + r ) >> 1; if ( x[m] == key ) return ...
- D. Green and Black Tea 贪心 + 构造
http://codeforces.com/contest/746/problem/D 首先说下一定是NO的情况. 假设a > b 那么,b最多能把a分成b + 1分,如果每份刚好是k的话,那么 ...
- 7.JAVA-类继承、覆写、final关键字
1.JAVA继承-extends 在java中,要想实现继承则使用extends关键字. 一般子类被称为派生类,父类称为基类(super) extends需要注意的地方: java不允许多重继承(一个 ...
- SpringMvc如何将Url 映射到 RequestMapping (一)
SpringMvc Url 匹配规则详解 最近开始阅读Spring 源码,虽然用了很久的spring ,但是没有真正的分析过Spring时如何工作的.今天重 MVC 的Url匹配规则开始进行Sprin ...
- iOS Programming Views :Redrawing and UIScrollView
iOS Programming Views :Redrawing and UIScrollView 1.1 event You are going to see how views are red ...