温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

Docker搭建Zookeeper和Kafka集群实例分析

发布时间:2022-05-31 11:42:43 来源:亿速云 阅读:113 作者:iii 栏目:大数据

这篇文章主要介绍“Docker搭建Zookeeper和Kafka集群实例分析”,在日常操作中,相信很多人在Docker搭建Zookeeper和Kafka集群实例分析问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Docker搭建Zookeeper和Kafka集群实例分析”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!

环境准备

一台可以上网且有centos7虚拟机的电脑

为什么使用虚拟机?因为使用的笔记本,所以每次连接网络ip都会改变,还要总是修改配置文件的,过于繁琐,不方便测试。(通过docker虚拟网络的方式可以避免此问题,当时实验的时候没有了解到)

docker 安装

如果已经安装docker请忽略此步骤

  • docker支持以下的centos版本:

  • centos 7 (64-bit):要求系统为64位、系统内核版本为 3.10 以上。

  • centos 6.5(64-bit)或更高的版本:要求系统为64位、系统内核版本为 2.6.32-431 或者更高版本。

  • centos 仅发行版本中的内核支持 docker。

yum安装

docker 要求 centos 系统的内核版本高于 3.10 ,查看上文的前提条件来验证你的centos 版本是否支持 docker 。

# 查看内核版本
$ uname -a
#安装 docker
$ yum -y install docker
#启动 docker 后台服务
$ service docker start
# 由于本地没有hello-world这个镜像,所以会下载一个hello-world的镜像,并在容器内运行。
$ docker run hello-world

脚本安装

使用 sudo 或 root 权限登录 centos。

确保 yum 包更新到最新。

$ sudo yum update

获取并执行 docker 安装脚本。

$ curl -fssl https://get.docker.com -o get-docker.sh
# 执行这个脚本会添加 docker.repo 源并安装 docker。
$ sudo sh get-docker.sh

启动docker

$ sudo systemctl start docker
# 验证 docker 是否安装成功并在容器中执行一个测试的镜像。
$ sudo docker run hello-world
$ docker ps

镜像加速

开始让我配置国内镜像源的时候我是拒绝的,但是使用之后发现那下载速度 duang~ 的一下就上去了。所以强烈建议大家配置国内镜像源。

打开/创建 /etc/docker/daemon.json 文件,添加以下内容:

{
 "registry-mirrors": ["http://hub-mirror.c.163.com"]
}

zookeeper集群搭建

zookeeper镜像:zookeeper:3.4

镜像准备

$ docker pull zookeeper:3.4

查找镜像可以去

docker pull images:tag // 代表拉取 tag 版本的 image 镜像

建立独立zookeeper容器

我们首先用最简单的方式创建一个独立的zookeeper节点,然后我们根据这个例子创建出其他的节点。

$ docker run --name zookeeper -p 2181:2181 -d zookeeper:3.4

默认的,容器内配置文件在, /conf/zoo.cfg,数据和日志目录默认在 /data 和 /datalog,需要的话可以将上述目录映射到宿主机。

参数解释

--name:指定容器名字
-p:为容器暴露出来的端口分配端口号
-d:在后台运行容器并打印容器id

集群搭建

其它节点的zookeeper容器创建方式与创建独立容器类似,需要注意的是,要分别指定节点的id和修改文件中多节点的配置,相应的创建命令如下:

新建docker网络

$ docker network create zoo_kafka
$ docker network ls

zookeeper容器1

$ docker run -d \
   --restart=always \
   -v /opt/docker/zookeeper/zoo1/data:/data \
   -v /opt/docker/zookeeper/zoo1/datalog:/datalog \
   -e zoo_my_id=1 \
   -p 2181:2181 \
   -e zoo_servers="server.1=zoo1:2888:3888 server.2=zoo2:2888:3888 server.3=zoo3:2888:3888" \
   --name=zoo1 \
   --net=viemall-zookeeper \
   --privileged \
   zookeeper:3.4

zookeeper容器2

$ docker run -d \
   --restart=always \
   -v /opt/docker/zookeeper/zoo2/data:/data \
   -v /opt/docker/zookeeper/zoo2/datalog:/datalog \
   -e zoo_my_id=2 \
   -p 2182:2181 \
   -e zoo_servers="server.1=zoo1:2888:3888 server.2=zoo2:2888:3888 server.3=zoo3:2888:3888" \
   --name=zoo2 \
   --net=viemall-zookeeper \
   --privileged \
   zookeeper:3.4

zookeeper容器3

$ docker run -d \
   --restart=always \
   -v /opt/docker/zookeeper/zoo3/data:/data \
   -v /opt/docker/zookeeper/zoo3/datalog:/datalog \
   -e zoo_my_id=3 \
   -p 2183:2181 \
   -e zoo_servers="server.1=zoo1:2888:3888 server.2=zoo2:2888:3888 server.3=zoo3:2888:3888" \
   --name=zoo3 \
   --net=viemall-zookeeper \
   --privileged \
   zookeeper:3.4

这种方式虽然也实现了我们想要的,但是步骤过于繁琐,而且维护起来麻烦(懒癌晚期),所以我们使用 docker-compose 的方式来实现。

docker-compose 搭建zookeeper集群

新建docker网络

$ docker network create viemall-zookeeper
$ docker network ls

编写 docker-compose.yml 脚本

使用方式:

安装 docker-compose

# 获取脚本
$ curl -l https://github.com/docker/compose/releases/download/1.25.0-rc2/docker-compose-`uname -s`-`uname -m` -o /usr/local/bin/docker-compose
# 赋予执行权限
$chmod +x /usr/local/bin/docker-compose

任意目录下新建 docker-compose.yml 文件,复制以下内容

执行命令 docker-compose up -d

命令对照
|命令|解释|
|-|-|
|docker-compose up|启动所有容器|
|docker-compose up -d|后台启动并运行所有容器|
|docker-compose up --no-recreate -d|不重新创建已经停止的容器|
|docker-compose up -d test2|只启动test2这个容器|
|docker-compose stop|停止容器|
|docker-compose start|启动容器|
|docker-compose down|停止并销毁容器|

docker-compose.yml详情

version: '2'
services:
 zoo1:
  image: zookeeper:3.4 # 镜像名称
  restart: always # 当发生错误时自动重启
  hostname: zoo1
  container_name: zoo1
  privileged: true
  ports: # 端口
   - 2181:2181
  volumes: # 挂载数据卷
   - ./zoo1/data:/data
   - ./zoo1/datalog:/datalog 
  environment:
   tz: asia/shanghai
   zoo_my_id: 1 # 节点id
   zoo_port: 2181 # zookeeper端口号
   zoo_servers: server.1=zoo1:2888:3888 server.2=zoo2:2888:3888 server.3=zoo3:2888:3888 # zookeeper节点列表
  networks:
   default:
    ipv4_address: 172.23.0.11

 zoo2:
  image: zookeeper:3.4
  restart: always
  hostname: zoo2
  container_name: zoo2
  privileged: true
  ports:
   - 2182:2181
  volumes:
   - ./zoo2/data:/data
   - ./zoo2/datalog:/datalog
  environment:
   tz: asia/shanghai
   zoo_my_id: 2
   zoo_port: 2181
   zoo_servers: server.1=zoo1:2888:3888 server.2=zoo2:2888:3888 server.3=zoo3:2888:3888
  networks:
   default:
    ipv4_address: 172.23.0.12

 zoo3:
  image: zookeeper:3.4
  restart: always
  hostname: zoo3
  container_name: zoo3
  privileged: true
  ports:
   - 2183:2181
  volumes:
   - ./zoo3/data:/data
   - ./zoo3/datalog:/datalog
  environment:
   tz: asia/shanghai
   zoo_my_id: 3
   zoo_port: 2181
   zoo_servers: server.1=zoo1:2888:3888 server.2=zoo2:2888:3888 server.3=zoo3:2888:3888
  networks:
   default:
    ipv4_address: 172.23.0.13

networks:
 default:
  external:
   name: zoo_kafka

验证

从图中我们可以看出,有一个leader,两个flower,至此我们的zookeeper集群就已经搭建好了

Docker搭建Zookeeper和Kafka集群实例分析

kafka集群搭建

有了上面的基础,再去搞kafka集群还是问题吗?其实就是几个变量值不同而已。

有了上边的例子,就不费劲去搞单节点的kafka了,直接使用docker-compose的方式,部署三个节点,其实方式大同小异,上边也说到,其实就是一些属性不同而已;这时候我们就不需要再去新建 docker 网络了,直接使用前边搭建 zookeeper 集群时创建的网络即可!

环境准备

kafka镜像:wurstmeister/kafka
kafka-manager镜像:sheepkiller/kafka-manager

# 不指定版本默认拉取最新版本的镜像
docker pull wurstmeister/kafka
docker pull sheepkiller/kafka-manager

编写 docker-compose.yml 脚本

使用方式:

安装 docker-compose

# 获取脚本
$ curl -l https://github.com/docker/compose/releases/download/1.25.0-rc2/docker-compose-`uname -s`-`uname -m` -o /usr/local/bin/docker-compose
# 赋予执行权限
$chmod +x /usr/local/bin/docker-compose

任意目录下新建 docker-compose.yml 文件,复制以下内容

执行命令 docker-compose up -d

命令对照
|命令|解释|
|-|-|-|
|docker-compose up|启动所有容器|
|docker-compose up -d|后台启动并运行所有容器|
|docker-compose up --no-recreate -d|不重新创建已经停止的容器|
|docker-compose up -d test2|只启动test2这个容器|
|docker-compose stop|停止容器|
|docker-compose start|启动容器|
|docker-compose down|停止并销毁容器|

docker-compose.yml详细内容

version: '2'

services:
 broker1:
  image: wurstmeister/kafka
  restart: always
  hostname: broker1
  container_name: broker1
  privileged: true
  ports:
   - "9091:9092"
  environment:
   kafka_broker_id: 1
   kafka_listeners: plaintext://broker1:9092
   kafka_advertised_listeners: plaintext://broker1:9092
   kafka_advertised_host_name: broker1
   kafka_advertised_port: 9092
   kafka_zookeeper_connect: zoo1:2181/kafka1,zoo2:2181/kafka1,zoo3:2181/kafka1
   jmx_port: 9988
  volumes:
   - /var/run/docker.sock:/var/run/docker.sock
   - ./broker1:/kafka/kafka\-logs\-broker1
  external_links:
  - zoo1
  - zoo2
  - zoo3
  networks:
   default:
    ipv4_address: 172.23.0.14

 broker2:
  image: wurstmeister/kafka
  restart: always
  hostname: broker2
  container_name: broker2
  privileged: true
  ports:
   - "9092:9092"
  environment:
   kafka_broker_id: 2
   kafka_listeners: plaintext://broker2:9092
   kafka_advertised_listeners: plaintext://broker2:9092
   kafka_advertised_host_name: broker2
   kafka_advertised_port: 9092
   kafka_zookeeper_connect: zoo1:2181/kafka1,zoo2:2181/kafka1,zoo3:2181/kafka1
   jmx_port: 9988
  volumes:
   - /var/run/docker.sock:/var/run/docker.sock
   - ./broker2:/kafka/kafka\-logs\-broker2
  external_links: # 连接本compose文件以外的container
  - zoo1
  - zoo2
  - zoo3
  networks:
   default:
    ipv4_address: 172.23.0.15

 broker3:
  image: wurstmeister/kafka
  restart: always
  hostname: broker3
  container_name: broker3
  privileged: true
  ports:
   - "9093:9092"
  environment:
   kafka_broker_id: 3
   kafka_listeners: plaintext://broker3:9092
   kafka_advertised_listeners: plaintext://broker3:9092
   kafka_advertised_host_name: broker3
   kafka_advertised_port: 9092
   kafka_zookeeper_connect: zoo1:2181/kafka1,zoo2:2181/kafka1,zoo3:2181/kafka1
   jmx_port: 9988
  volumes:
   - /var/run/docker.sock:/var/run/docker.sock
   - ./broker3:/kafka/kafka\-logs\-broker3
  external_links: # 连接本compose文件以外的container
  - zoo1
  - zoo2
  - zoo3
  networks:
   default:
    ipv4_address: 172.23.0.16

 kafka-manager:
  image: sheepkiller/kafka-manager:latest
  restart: always
  container_name: kafka-manager
  hostname: kafka-manager
  ports:
   - "9000:9000"
  links:      # 连接本compose文件创建的container
   - broker1
   - broker2
   - broker3
  external_links:  # 连接本compose文件以外的container
   - zoo1
   - zoo2
   - zoo3
  environment:
   zk_hosts: zoo1:2181/kafka1,zoo2:2181/kafka1,zoo3:2181/kafka1
   kafka_brokers: broker1:9092,broker2:9092,broker3:9092
   application_secret: letmein
   km_args: -djava.net.preferipv4stack=true
  networks:
   default:
    ipv4_address: 172.23.0.10

networks:
 default:
  external:  # 使用已创建的网络
   name: zoo_kafka

验证

我们打开kafka-manager的管理页面,访问路径是,宿主机ip:9000;

Docker搭建Zookeeper和Kafka集群实例分析

如果所示,填写上zookeeper集群的地址,划到最下边点击save

点击刚刚添加的集群,可以看到,集群中有三个节点

Docker搭建Zookeeper和Kafka集群实例分析

搭建过程中遇到的问题

挂载数据卷无限重启,查看log提示:chown: changing ownership of ‘/var/lib/mysql/....‘: permission denied

解决方式:

  • 在docker run中加入 --privileged=true 给容器加上特定权限

  • 临时关闭selinux: setenforce 0

  • 添加selinux规则,改变要挂载的目录的安全性文本

kafka-manager报jmx相关错误,

解决方法:

  • 在每一个kafka节点加上环境变量 jmx_port=端口

  • 加上之后发现连不上,又是网络连接的问题,于是又把每个jmx端口暴露出来,然后fire-wall放行, 解决问题。

  • kafka_advertised_host_name这个最好设置宿主机的ip,宿主机以外的代码或者工具来连接,后面的端口也需要设置暴露的端口。

[error] k.m.j.kafkajmx$ - failed to connect to service:jmx:rmi:///jndi/rmi://9.11.8.48:-1/jmxrmi java.lang.illegalargumentexception: requirement failed: no jmx port but jmx polling enabled!

在容器中查看topic时报以下错误(不仅仅是topic的命令,好像所有的都会出错)

$ bin/kafka-topics.sh --list --zookeeper zoo1:2181/kafka1,zoo2:2181/kafka1,zoo3:2181/kafka1
# 以下是错误
error: exception thrown by the agent : java.rmi.server.exportexception: port already in use: 7203; nested exception is:
    java.net.bindexception: address already in use

解决方法:

在命令前加上unset jmx_port;指令,上边的命令改造为:

$ unset jmx_port;bin/kafka-topics.sh --list --zookeeper zoo1:2181/kafka1,zoo2:2181/kafka1,zoo3:2181/kafka1

附:docker常用指令

# 查看所有镜像
docker images
# 查看所有运行中的容器
docker ps
# 查看所有容器
docker ps -a
# 获取所有容器ip
$ docker inspect --format='{{.name}} - {{range .networksettings.networks}}{{.ipaddress}}{{end}}' $(docker ps -aq)
# 查看容器内部日志
$ docker logs -f <容器id>
# 进入容器内部
$ docker exec -it <容器id> /bin/basj
# 创建容器 -d代表后台启动
docker run --name <容器名称> -e <参数> -v <挂载数据卷> <容器id>
# 重启容器
docker restart <容器id>
# 关闭容器
docker stop <容器id>
# 运行容器
docker start <容器id>

到此,关于“Docker搭建Zookeeper和Kafka集群实例分析”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注亿速云网站,小编会继续努力为大家带来更多实用的文章!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI