Kafka是目前业界使用最广泛的消息队列。数据流转常见这样的业务场景,客户端把采集到的日志推送给Kafka,业务方可以消费Kafka的数据落地HDFS,用于离线分析,也可以使用Spark或Flink消费Kafka中的数据,用于实时计算。Kafka在数据流转过程中发挥着纽带作用,可用于日志采集和数据处理系统间的解耦。

本文将介绍搭建Kafka集群的详细安装步骤,并根据日常业务遇到的问题,对Linux系统和Kafka节点的配置参数进行调优。

组件 版本 说明
Kafka 2.12-2.5.1
Zookeeper 3.5.8 5个节点
JDK 1.8.0_144

服务器配置:

  1. CPU:【2*Intel(R) Xeon(R) Silver 4214 Processor 12 Cores 24 Threads 2.20 GHz
  2. 内存:【8*16G DDR4-2666 ECC 1.2v RDIMM
  3. 机械硬盘:【12*4T 7200 3.5 SATA接口】
  4. 网卡:万兆网卡
  5. Linux系统:centos7.6
  • 安装jdk1.8
  1. 下载jdk1.8.0_144,并解压到/usr/local目录
  • 关闭swap

若不关闭swap,内存频繁与磁盘空间交换,会有增加gc时间的风险。

  1. #临时生效
  2. swapoff -a
  3. #永久生效
  4. echo 'swapoff -a' >> /etc/rc.d/rc.local
  • 修改最大文件打开数

Linux默认配置的最大文件打开数为1024,若Kafka的写入和消费方比较多,会很容易超过默认值,导致broker异常关闭。

  1. #临时生效
  2. ulimit -n 102400
  3. #查看open files 个数
  4. ulimit -a | grep 'open files'
  5. #永久生效
  6. vim /etc/security/limits.conf
  7. * soft nofile 102400
  8. * hard nofile 102400

搭建5个节点的zk集群,可保证在最多挂两个zk节点的情况下,zk集群依然可以正常对外提供服务。
zk集群搭建步骤参见上篇博文:zookeeper-3.5.8集群搭建

  1. 从官网下载一份kafka_2.12-2.5.1程序压缩包,解压到当前目录。
  • 修改bin/kafka-server-start.sh文件

配置日志打印目录、开放JMX端口、依赖的JDK,以及JVM内存。

  1. vim bin/kafka-server-start.sh
  2. export LOG_DIR="/var/log/kafka"
  3. export JMX_PORT="2020"
  4. export JAVA_HOME="/usr/local/jdk1.8.0_144"
  5. if [ "x$KAFKA_HE:AP_OPTS" = "x" ]; then
  6. export KAFKA_HEAP_OPTS="-Xmx6G -Xms6G"
  7. fi
  • 修改bin/kafka-run-class.sh

配置JVM的垃圾回收器G1参数。

  1. vim bin/kafka-run-class.sh
  2. export JAVA_HOME="/usr/local/jdk1.8.0_144" #其他脚本调用该shell,需要JDK环境
  3. KAFKA_JVM_PERFORMANCE_OPTS="-server -XX:MetaspaceSize=96m -XX:+UseG1GC -XX:MaxGCPauseMillis=20 -XX:InitiatingHeapOccupancyPercent=35 -XX:G1HeapRegionSize=16M -XX:MinMetaspaceFreeRatio=50 -XX:MaxMetaspaceFreeRatio=80"
  • 修改config/server.properties文件
  1. vim config/server.properties
  2. broker.id=10*
  3. listeners=PLAINTEXT://host_name:9090
  4. # 在写入量150MB/s,读取量300MB/s的情况下,使用以下两个配置,网络线程和磁盘IO线程平均空闲率大约30%。
  5. num.network.threads=6
  6. num.io.threads=12
  7. log.dirs=/data*/kafka-logs #根据具体情况而定
  8. log.retention.hours=48
  9. zookeeper.connect=zk1.bjehp.com:2181,zk2.bjehp.com:2181,zk3.bjehp.com:2181,zk4.bjehp.com:2181,zk5.bjehp.com:2181/kafka/talos #注意修改zookeeper地址
  10. auto.create.topics.enable=false
  11. default.replication.factor=2
  12. #以下注释为Kafka默认参数,注意zk的连接时间与超时时间由0.8版本的6s提高到现版本的18s.
  13. #offsets.topic.replication.factor=3
  14. #transaction.state.log.replication.factor=3
  15. #transaction.state.log.min.isr=2
  16. #group.initial.rebalance.delay.ms=3000
  17. #zookeeper.connection.timeout.ms=18000
  18. #zookeeper.session.timeout.ms=18000
  • 同步安装包
  1. 将中转机的Kafka安装包拷贝到本地/usr/local/目录
  • 根据机器实际情况修改server.properties配置文件
  1. vim /usr/local/kafka_2.12-2.5.1/config/server.properties
  2. broker.id=10* #修改broker id参数
  3. log.dirs=/data*/kafka-logs #根据实际情况修改log目录
  4. listeners=SASL_PLAINTEXT://hostname:9090 #修改hostname
  1. nohup /usr/local/kafka_2.12-2.5.1/bin/kafka-server-start.sh /usr/local/kafka_2.12-2.5.1/config/server.properties > /dev/null 2>&1 &
  2. ps aux | grep kafka
  3. tailf /var/log/kafka/server.log
  4. netstat -tnlp | grep 9090
  5. netstat -tnlp | grep 2020
  1. /usr/local/kafka_2.12-2.5.1/bin/kafka-server-stop.sh
  1. vim /etc/cron.d/kafka-logclean
  2. # 每天定时清除1天前的kafka日志文件
  3. 5 4 * * * root find /var/log/kafka/*.log.* -type f -mtime +1 | xargs rm -f
  • 配置服务器的磁盘、内存、cpu load报警
  • 配置Kakfa节点端口报警

本文介绍了Kakfa集群的详细搭建步骤,以及Linux系统和Kafka节点的参数调优。近些年随着Kafka版本不断迭代,之前的旧版本的bug(比如0.8版本)也不断被修复,并且不断有新功能涌现,比如流量配额、exactly-once语义等,使得Kafka集群越来越稳定,这将明显降低集群故障。Kafka在很多功能点的实现上有很多巧妙的设计,值得不断地深入学习和探索~~~

版权声明:本文为ljhbjehp原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/ljhbjehp/p/13945127.html