Kafka是目前业界使用最广泛的消息队列。数据流转常见这样的业务场景,客户端把采集到的日志推送给Kafka,业务方可以消费Kafka的数据落地HDFS,用于离线分析,也可以使用Spark或Flink消费Kafka中的数据,用于实时计算。Kafka在数据流转过程中发挥着纽带作用,可用于日志采集和数据处理系统间的解耦。

本文将介绍搭建Kafka集群的详细安装步骤,并根据日常业务遇到的问题,对Linux系统和Kafka节点的配置参数进行调优。

1. 环境说明

组件 版本 说明
Kafka 2.12-2.5.1
Zookeeper 3.5.8 5个节点
JDK 1.8.0_144

服务器配置:

CPU:【2*Intel(R) Xeon(R) Silver 4214 Processor 12 Cores 24 Threads 2.20 GHz】
内存:【8*16G DDR4-2666 ECC 1.2v RDIMM】
机械硬盘:【12*4T 7200转 3.5寸 SATA接口】
网卡:万兆网卡
Linux系统:centos7.6

2.初始化各个节点基础环境

  • 安装jdk1.8
下载jdk1.8.0_144,并解压到/usr/local目录
  • 关闭swap

若不关闭swap,内存频繁与磁盘空间交换,会有增加gc时间的风险。

#临时生效
swapoff -a #永久生效
echo 'swapoff -a' >> /etc/rc.d/rc.local
  • 修改最大文件打开数

Linux默认配置的最大文件打开数为1024,若Kafka的写入和消费方比较多,会很容易超过默认值,导致broker异常关闭。

#临时生效
ulimit -n 102400
#查看open files 个数
ulimit -a | grep 'open files' #永久生效
vim /etc/security/limits.conf
* soft nofile 102400
* hard nofile 102400

3.搭建zk集群

搭建5个节点的zk集群,可保证在最多挂两个zk节点的情况下,zk集群依然可以正常对外提供服务。

zk集群搭建步骤参见上篇博文:zookeeper-3.5.8集群搭建

4. 中转机上配置一份Kafka

下载解压

从官网下载一份kafka_2.12-2.5.1程序压缩包,解压到当前目录。

修改配置

  • 修改bin/kafka-server-start.sh文件

配置日志打印目录、开放JMX端口、依赖的JDK,以及JVM内存。

vim bin/kafka-server-start.sh

export LOG_DIR="/var/log/kafka"
export JMX_PORT="2020"
export JAVA_HOME="/usr/local/jdk1.8.0_144" if [ "x$KAFKA_HE:AP_OPTS" = "x" ]; then
export KAFKA_HEAP_OPTS="-Xmx6G -Xms6G"
fi
  • 修改bin/kafka-run-class.sh

配置JVM的垃圾回收器G1参数。

vim bin/kafka-run-class.sh

export JAVA_HOME="/usr/local/jdk1.8.0_144"   #其他脚本调用该shell,需要JDK环境

KAFKA_JVM_PERFORMANCE_OPTS="-server -XX:MetaspaceSize=96m -XX:+UseG1GC -XX:MaxGCPauseMillis=20 -XX:InitiatingHeapOccupancyPercent=35 -XX:G1HeapRegionSize=16M -XX:MinMetaspaceFreeRatio=50 -XX:MaxMetaspaceFreeRatio=80"
  • 修改config/server.properties文件
vim config/server.properties
broker.id=10*
listeners=PLAINTEXT://host_name:9090 # 在写入量150MB/s,读取量300MB/s的情况下,使用以下两个配置,网络线程和磁盘IO线程平均空闲率大约30%。
num.network.threads=6
num.io.threads=12 log.dirs=/data*/kafka-logs #根据具体情况而定 log.retention.hours=48
zookeeper.connect=zk1.bjehp.com:2181,zk2.bjehp.com:2181,zk3.bjehp.com:2181,zk4.bjehp.com:2181,zk5.bjehp.com:2181/kafka/talos #注意修改zookeeper地址 auto.create.topics.enable=false
default.replication.factor=2 #以下注释为Kafka默认参数,注意zk的连接时间与超时时间由0.8版本的6s提高到现版本的18s.
#offsets.topic.replication.factor=3
#transaction.state.log.replication.factor=3
#transaction.state.log.min.isr=2
#group.initial.rebalance.delay.ms=3000 #zookeeper.connection.timeout.ms=18000
#zookeeper.session.timeout.ms=18000

5. 在各个节点安装并启动Kafka

安装

  • 同步安装包
将中转机的Kafka安装包拷贝到本地/usr/local/目录
  • 根据机器实际情况修改server.properties配置文件
vim /usr/local/kafka_2.12-2.5.1/config/server.properties
broker.id=10* #修改broker id参数
log.dirs=/data*/kafka-logs #根据实际情况修改log目录
listeners=SASL_PLAINTEXT://hostname:9090 #修改hostname

启动并验证

nohup /usr/local/kafka_2.12-2.5.1/bin/kafka-server-start.sh /usr/local/kafka_2.12-2.5.1/config/server.properties > /dev/null 2>&1 &

ps aux | grep kafka
tailf /var/log/kafka/server.log netstat -tnlp | grep 9090
netstat -tnlp | grep 2020

停止

/usr/local/kafka_2.12-2.5.1/bin/kafka-server-stop.sh

6.服务运维

定时清除日志

vim /etc/cron.d/kafka-logclean
# 每天定时清除1天前的kafka日志文件
5 4 * * * root find /var/log/kafka/*.log.* -type f -mtime +1 | xargs rm -f

配置监控报警

  • 配置服务器的磁盘、内存、cpu load报警
  • 配置Kakfa节点端口报警

总结

本文介绍了Kakfa集群的详细搭建步骤,以及Linux系统和Kafka节点的参数调优。近些年随着Kafka版本不断迭代,之前的旧版本的bug(比如0.8版本)也不断被修复,并且不断有新功能涌现,比如流量配额、exactly-once语义等,使得Kafka集群越来越稳定,这将明显降低集群故障。Kafka在很多功能点的实现上有很多巧妙的设计,值得不断地深入学习和探索~~~

Kafka_2.12-2.5.1集群搭建与参数调优的更多相关文章

  1. 每秒处理3百万请求的Web集群搭建-为最佳性能调优 Nginx

    这篇文章是<打造3百万次请求/秒的高性能服务器集群>系列的第2部分,在这个部分中你可以使用任何一种 WEB 服务器,不过我决定使用 Nginx,因其轻量级.高可靠及高性能的优点. 通常来说 ...

  2. PB 级大规模 Elasticsearch 集群运维与调优实践

    PB 级大规模 Elasticsearch 集群运维与调优实践 https://mp.weixin.qq.com/s/PDyHT9IuRij20JBgbPTjFA | 导语 腾讯云 Elasticse ...

  3. [spark]-Spark2.x集群搭建与参数详解

    在前面的Spark发展历程和基本概念中介绍了Spark的一些基本概念,熟悉了这些基本概念对于集群的搭建是很有必要的.我们可以了解到每个参数配置的作用是什么.这里将详细介绍Spark集群搭建以及xml参 ...

  4. kafka_2.11-0.10.1.1集群搭建安装配置

    在搭建kafka集群之前,请保证zookeeper已安装. 1.下载 官网下载链接:http://mirrors.tuna.tsinghua.edu.cn/apache/kafka/0.10.1.1/ ...

  5. PB级大规模Elasticsearch集群运维与调优实践

    导语 | 腾讯云Elasticsearch 被广泛应用于日志实时分析.结构化数据分析.全文检索等场景中,本文将以情景植入的方式,向大家介绍与腾讯云客户合作过程中遇到的各种典型问题,以及相应的解决思路与 ...

  6. PB级大规模Elasticsearch集群运维与调优实践【>>戳文章免费体验Elasticsearch服务30天】

    [活动]Elasticsearch Service免费体验馆>> Elasticsearch Service自建迁移特惠政策>>Elasticsearch Service新用户 ...

  7. [hadoop] 集群启动和内存调优

    1.启动Hadoop集群 #首先查看下zoo.cfg里面配置的server.id和集群主机的id是否一致 #如果不一致会造成yarn控制不了从节点的启动 cat /home/hadoop/zookee ...

  8. (四)Spark集群搭建-Java&Python版Spark

    Spark集群搭建 视频教程 1.优酷 2.YouTube 安装scala环境 下载地址http://www.scala-lang.org/download/ 上传scala-2.10.5.tgz到m ...

  9. Ubuntu 12.04下Hadoop 2.2.0 集群搭建(原创)

    现在大家可以跟我一起来实现Ubuntu 12.04下Hadoop 2.2.0 集群搭建,在这里我使用了两台服务器,一台作为master即namenode主机,另一台作为slave即datanode主机 ...

随机推荐

  1. c++ 十进制、十六进制和BCD的相互转换,与打印printf,与函数调用

    转载: https://blog.csdn.net/sjhuangx/article/details/49947179   c++ 十进制.十六进制和BCD的相互转换 https://blog.csd ...

  2. 多测师讲解python _练习题003_高级讲师肖sir

    python 003作业题:# 1.分别打印100以内的所有偶数和奇数并存入不同的列表当中# 2.请写一段Python代码实现删除一个list = [1, 3, 6, 9, 1, 8]# 里面的重复元 ...

  3. 多测师讲解接口测试__mock___高级讲师肖sir

    一.关于Mock测试 1.什么是Mock测试?mock测试,源自于英文单词fake,意为假的测试实际工作中用于模拟那些无法实时连接的后端,或是没有开发出来的后端,用于获得结果反馈的一种测试方式.通过发 ...

  4. C# 范型约束 new() 你必须要知道的事

    C# 范型约束 new() 你必须要知道的事 注意:本文不会讲范型如何使用,关于范型的概念和范型约束的使用请移步谷歌. 本文要讲的是关于范型约束无参构造函数 new 的一些底层细节和注意事项.写这篇文 ...

  5. SpringBoot+Activiti+bpmn.js+Vue.js+Elementui(OA系统审批流)

    引言:OA系统用到请假.加班.调休.离职,需要使用工作流进行流程审批 一:activiti流程设计器的选择(通过学习activiti工作流过程中,发现一款好的流程设计器将会更好的方便的设计好流程(主要 ...

  6. iot平台

    iot平台 iot平台卓岚云是一个免费的物联网云平台,用户只需按步骤完成注册即可免费使用卓岚云 .支持PC.Android.iOS多平台终端.用户可以在任何地方远程访问任何地方的串口设备,并对远程设备 ...

  7. Python爬虫框架--Scrapy安装以及简单实用

    scrapy框架 框架 ​ -具有很多功能且具有很强通用性的一个项目模板 环境安装: Linux: ​        pip3 install scrapy ​ ​ ​  Windows: ​     ...

  8. Windows 上的苹果 mac Time Machine 时间机器免费替代品 FreeFileSync 操作指南

    Windows 上的苹果 mac Time Machine 时间机器免费替代品 FreeFileSync 操作指南 前言:为什么不用 Windows 10 自带的备份还原呢?因为不稳定,不能很好的备份 ...

  9. nginx 是如何处理过期事件的?

    目录 什么是过期事件 nginx 是如何处理过期事件的? 参考资料 什么是过期事件 对于不需要加入到 post 队列 延后处理的事件,nginx 的事件都是通过 ngx_epoll_process_e ...

  10. Linux的外部命令的执行

    查看外部命令的路径 whereis 不但能显示出外部命令的路径还能显示出帮助文档 which -a |--skip-alias whereis