百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术教程 > 正文

0748-5.14.4-Kafka的扩容和缩容(kafka如何扩容)

suiw9 2025-03-23 23:36 11 浏览 0 评论

文档编写目的

在Kafka集群资源使用已超出系统配置的资源时,或者有大量资源闲置造成资源浪费的时候,需要分别通过扩容Kafka和缩容Kafka来进行调整。本篇文章Fayson主要介绍如何进行Kafka的扩容和缩容,以及变更后的Kafka集群如何进行负载均衡的操作。

  • 测试环境:

1.Redhat7.2

2.采用root用户操作

3.CM为5.16.2,CDH为5.14.4

4.Kafka版本为0.10.2

5.集群启用了Kerberos,Kafka未启用Kerberos和Sentry


Kafka集群的扩容

2.1 当前Kafka集群状态


集群中有3个kafka broker


有2个topic,分别为test和test1,情况如下



2.2 扩容前准备

新扩容的机器要先加入集群中,通过CM管理,按照下面的步骤进行操作

1.修改新添加的机器的hostname

[root@hadoop6 ~]# hostnamectl set-hostname cdh04.hadoop.com


2.修改/etc/hosts文件并同步到所有节点,这里用脚本来实现。

192.168.0.204 cdh01.hadoop.com cdh01
192.168.0.205 cdh02.hadoop.com cdh02
192.168.0.206 cdh03.hadoop.com cdh03
192.168.0.195 cdh04.hadoop.com cdh04


3.新添加的节点关闭防火墙,设置开机自动关闭

[root@cdh04 ~]# systemctl stop firewalld
[root@cdh04 ~]# systemctl disable firewalld


4.新添加的节点禁用SELinux,并修改修改/etc/selinux/config

[root@cdh04 ~]# setenforce 0
setenforce: SELinux is disabled
[root@cdh04 ~]# vim /etc/selinux/config


5.新添加的节点关闭透明大页面,并且在/etc/rc.d/rc.local 里面加入脚本,设置自动开机关闭。

[root@cdh04 ~]# echo never > /sys/kernel/mm/transparent_hugepage/defrag
[root@cdh04 ~]# echo never > /sys/kernel/mm/transparent_hugepage/enabled
[root@cdh04 ~]# vim /etc/rc.d/rc.local
if test -f /sys/kernel/mm/transparent_hugepage/defrag
then echo never > /sys/kernel/mm/transparent_hugepage/defrag
fi
if test -f /sys/kernel/mm/transparent_hugepage/enabled
then echo never > /sys/kernel/mm/transparent_hugepage/enabled
fi


[root@cdh04 ~]# chmod +x /etc/rc.d/rc.local


6.新添加的节点设置SWAP,并且设置开机自动更改

[root@cdh04 ~]# sysctl vm.swappiness=1
vm.swappiness = 1
[root@cdh04 ~]# echo vm.swappiness = 1  >> /etc/sysctl.conf


7.新添加的节点配置时钟同步,先在所有服务器卸载chrony,再安装ntp,再修改配置把时钟同步跟其他kafka broker节点保持一致

[root@cdh04 ~]# yum -y remove chrony
[root@cdh04 ~]# yum -y install ntp

vim /etc/ntp.conf

启动ntp服务,并设置开机启动

[root@cdh04 java]# systemctl start ntpd[root@cdh04 java]# systemctl enable ntpd


8.新添加的节点安装kerberos客户端,并进行配置

[root@cdh04 ~]# yum -y install krb5-libs krb5-workstation

从其他节点拷贝/etc/krb5.conf文件到新节点


9.从其他节点拷贝集群使用的JDK到新节点/usr/java目录下

[root@cdh01 java]# scp -r jdk1.8.0_131/ cdh04:/usr/java/jdk1.8.0_131/


10.在CM编辑主机模板kafka,只添加kafka broker角色


2.3 扩容Kafka

1.添加新的节点到集群,从CM主页点击Add Hosts,如下图所示


2.点击继续


3.搜索主机,输入主机名,点击搜索并继续


4.输入自定义存储库地址,并继续


5.点击安装JDK并继续


6.输入主机密码并继续


7.正在进行安装,安装成功后点击继续

激活完成,点击继续


8.点击继续,进入主机检查,添加主机完成


9.应用主机模板kafka,扩容完成


扩容完成


扩容后平衡

在扩容完成后,可以通过自带的命令来生成topic的平衡策略和执行平衡的操作。

3.1 生成平衡策略

1.查询当前创建的topic

[root@cdh01 ~]# kafka-topics --list --zookeeper cdh01.hadoop.com:2181


2.按照查询到的topic来创建文件topics-to-move.json 格式如下

{"topics": [{"topic": "test"},
{"topic": "test1"}
            ],
"version":1
}



3.在CM查询kafka broker的ID


4.用命令生成迁移方案,下面画红框的就是生成的平衡方案

kafka-reassign-partitions --zookeeper cdh01.hadoop.com:2181 --topics-to-move-json-file topics-to-move.json  --broker-list "121,124,125,126" --generate


5.把Proposed partition reassignment configuration下的内容复制保存为json文件newkafka.json,平衡方案生成完成。


3.2 执行平衡策略

1.执行下面的命令来进行平衡

[root@cdh01 ~]# kafka-reassign-partitions --zookeeper cdh01.hadoop.com:2181 --reassignment-json-file newkafka.json --execute


2.用下面命令来进行查看执行的进度

kafka-reassign-partitions --zookeeper cdh01.hadoop.com:2181 --reassignment-json-file newkafka.json --verify


从结果可以看到已经执行完成。,并且在新添加的节点上也可以看到有topic的副本存过来了。

缩容前的准备

1.编辑之前创建的topics-to-move.json文件,添加上系统自动生成的__consumer_offsets

[root@cdh01 ~]# vim topics-to-move.json 
{"topics": [{"topic": "test"},{"topic": "__consumer_offsets"},
{"topic": "test1"}
            ],
"version":1
}


2.再次使用命令生成迁移计划,这里只选取121,124,126这三个broker,然后把生成计划中的126替换成125进行保存,这样就把126上的数据全部迁移到了125上。

kafka-reassign-partitions --zookeeper cdh01.hadoop.com:2181 --topics-to-move-json-file topics-to-move.json  --broker-list "121,124,126" --generate


3.执行迁移命令,进行迁移

kafka-reassign-partitions --zookeeper cdh01.hadoop.com:2181 --reassignment-json-file newkafka.json --execute


4.进行查询,迁移完成

kafka-reassign-partitions --zookeeper cdh01.hadoop.com:2181 --reassignment-json-file newkafka.json --verify


5.在要删除的broker上也可以看到,topic数据已经迁移走


Kafka集群的缩容

在完成上诉缩容前的准备后,现在可以进行kafka集群的缩容。

1.从CM进入Kafka的实例界面


2.勾选要删除的broker,先停止该broker


3.停止完成后,进行删除


删除完成。

总结

1.Kafka集群的扩容和缩容可以通过CM来进行添加broker和删除broker来进行。


2.在Kafka集群扩容后,已有topic的partition不会自动均衡到新的磁盘上。可以通过kafka-reassign-partitions命令来进行数据平衡,先用命令生成平衡方案,再执行。也可以手动编辑迁移方案来进行执行。


3.新建topic的partition, 会以磁盘为单位,按照partition数量最少的来落盘。


4.在Kafka缩容前,需要把要删除的broker上的topic数据迁出,也可以通过kafka-reassign-partitions来进行迁移,手动编辑迁移方案,再通过命令执行即可。



5.kafka-reassign-partitions这个命令,只有指定了broker id上的topic才会参与partition的reassign。根据我们的需求,可以手动来编写和修改迁移计划。

相关推荐

看完这一篇数据仓库干货,终于搞懂什么是hive了

一、Hive定义Hive最早来源于FaceBook,因为FaceBook网站每天产生海量的结构化日志数据,为了对这些数据进行管理,并且因为机器学习的需求,产生了Hive这们技术,并继续发展成为一个成...

真正让你明白Hive参数调优系列1:控制map个数与性能调优参数

本系列几章系统地介绍了开发中Hive常见的用户配置属性(有时称为参数,变量或选项),并说明了哪些版本引入了哪些属性,常见有哪些属性的使用,哪些属性可以进行Hive调优,以及如何使用的问题。以及日常Hi...

HIVE SQL基础语法(hive sql是什么)

引言与关系型数据库的SQL略有不同,但支持了绝大多数的语句如DDL、DML以及常见的聚合函数、连接查询、条件查询。HIVE不适合用于联机事务处理,也不提供实时查询功能。它最适合应用在基于大量不可变数据...

[干货]Hive与Spark sql整合并测试效率

在目前的大数据架构中hive是用来做离线数据分析的,而在Spark1.4版本中spark加入了sparksql,我们知道spark的优势是速度快,那么到底sparksql会比hive...

Hive 常用的函数(hive 数学函数)

一、Hive函数概述及分类标准概述Hive内建了不少函数,用于满足用户不同使用需求,提高SQL编写效率:...

数仓/数开面试题真题总结(二)(数仓面试时应该讲些什么)

二.Hive...

Tomcat处理HTTP请求流程解析(tomcat 处理请求过程)

1、一个简单的HTTP服务器在Web应用中,浏览器请求一个URL,服务器就把生成的HTML网页发送给浏览器,而浏览器和服务器之间的传输协议是HTTP,那么接下来我们看下如何用Java来实现一个简单...

Python 高级编程之网络编程 Socket(六)

一、概述Python网络编程是指使用Python语言编写的网络应用程序。这种编程涉及到网络通信、套接字编程、协议解析等多种方面的知识。...

[904]ScalersTalk成长会Python小组第20周学习笔记

Scalers点评:在2015年,ScalersTalk成长会Python小组完成了《Python核心编程》第1轮的学习。到2016年,我们开始第二轮的学习,并且将重点放在章节的习题上。Python小...

「web开发」几款http请求测试工具

curl命令CURL(CommandLineUniformResourceLocator),是一个利用URL语法,在命令行终端下使用的网络请求工具,支持HTTP、HTTPS、FTP等协议...

x-cmd pkg | hurl - 强力的 HTTP 请求测试工具,让 API 测试更加简洁高效

简介...

Mac 基于HTTP方式访问下载共享文件,配置共享服务器

方法一:使用Python的SimpleHTTPServer进行局域网文件共享Mac自带Python,所以不需要安装其他软件,一条命令即可...

Python 基础教程十五之 Python 使用requests库发送http请求

前言...

使用curl进行http高并发访问(php curl 大量并发获得结果)

本文主要介绍curl异步接口的使用方式,以及获取高性能的一些思路和实践。同时假设读者已经熟悉并且使用过同步接口。1.curl接口基本介绍curl一共有三种接口:EasyInterface...

Django 中的 HttpResponse理解和用法-基础篇1

思路是方向,代码是时间,知识需积累,经验需摸索。希望对大家有用,有错误还望指出。...

取消回复欢迎 发表评论: