Docker进阶 数据卷dockerfile网络

it2023-07-28  69

资料来源: bilibili 狂神说 :https://www.bilibili.com/video/BV1og4y1q7M4 docker 基础 — https://blog.csdn.net/qq_42432141/article/details/109186235

容器数据卷

什么是容器数据卷?

docker的理念回顾

将应用和环境打包成一个镜像!

数据?如果数据都在容器中,那么我们容器删除,数据就会丢失!需求:数据可以持久化

MySQL:容器删了,删库跑路。需求:MySQL数据可以存储在本地!

容器之间可以有一个数据共享的技术!Docker容器中产生的数据,同步到本地!

这就是卷技术!目录的挂在,将我们容器内的目录,挂载到linux上面!

为什么用卷? 总结来讲一句话:容器的持久化和同步操作,容器之间也可以数据共享的!

使用数据卷

方式一: 直接使用命令来挂载 -v

# -v,--volume list Bind mount a volume docker run -it -v 虚拟机目录:容器目录 docker run -it -v /home/ceshi:/home centos /bin/bash

测试文件同步

再来测试!

停止容器宿主机修改文件启动容器容器内的数据依旧是同步的 [root@jsu ceshi]# docker stop fedeb086f196 fedeb086f196 [root@jsu ceshi]# vim test.java [root@jsu ceshi]# docker start fedeb086f196 fedeb086f196 [root@jsu ceshi]# docker attach fedeb086f196 [root@fedeb086f196 /]# cd /home [root@fedeb086f196 home]# ls test.java [root@fedeb086f196 home]# cat test.java hello world

实战:安装MySQL

思考:MySQL的数据存储化问题

# 1、pull mysql的镜像 [root@jsu ~]# docker pull mysql:5.7 # 2、运行容器,数据挂载 -- 安装mysql 注意修改密码 # 官方:docker run --name some-mysql -e MYSQL_ROOT_PASSWORD=my-secret-pw -d mysql:tag # 启动 -d 后台运行 -p 端口映射 -v 卷挂载 -e 环境配置 -- name 容器名字 [root@jsu ~]# docker run -d -p 3306:3306 -v /usr/local/docker/mysql/conf:/etc/mysql/conf -v /usr/local/docker/mysql/data:/var/lib/mysql -e MYSQL_ROOT_PASSWORD=000 --name mysql mysql:5.7 [root@jsu ~]# 4b763efc5b9bab84d22b7dc5dddf52cd89128d1a7899b453fa8cd7e5ed93cde2

当我们把容器删除的时候 ,会发现挂载到本地的数据卷没有丢失,这实现了容器数据持久化的功能!

具名和匿名挂载

# 匿名挂载 -v 容器内路径! docker run -d -P --name nginx01 -v /usr/local/docker/nginx nginx # 查看所有的volume的情况 [root@jsu ceshi]# docker volume ls DRIVER VOLUME NAME local 7ee05c67c98788b4755ef31f0990267863e7dd0b1207cc43268b1947e9da8a3f local aa37541800f40ad013385f107410741af2af16b0d4c48a1ef01658ea6db5bb94 # 这里发现,这种就是匿名挂载,我们在 -v只写了容器内的路径,没有写容器外的路劲! # 具名挂载 ➜ ~ docker run -d -P --name nginx02 -v juming-nginx:/etc/nginx nginx ➜ ~ docker volume ls DRIVER VOLUME NAME local juming-nginx # 通过 -v 卷名:容器内路径 # 查看一下这个卷

所有的docker容器内的卷,没有指定目录的情况下都是在/var/lib/docker/volumes/xxxx/_data下 如果指定了目录,docker volume ls 是查看不到的

三种挂载: 匿名挂载、具名挂载、指定路径挂载 -v 容器内路径 #匿名挂载 -v 卷名:容器内路径 #具名挂载 -v /宿主机路径:容器内路径 #指定路径挂载 docker volume ls 是查看不到的

扩展:

# 通过 -v 容器内路径: ro rw 改变读写权限 ro #readonly 只读 rw #readwrite 可读可写 docker run -d -P --name nginx -v juming:/etc/nginx:ro nginx docker run -d -P --name nginx -v juming:/etc/nginx:rw nginx # ro 只要看到ro就说明这个路径只能通过宿主机来操作,容器内部是无法操作!

初识Dockerfile

Dockerfile 就是用来构建docker镜像的构建文件!命令脚本!先体验一下!

通过这个脚本可以生成镜像,镜像是一层一层的,脚本是一个一个的命令,每一个命令都是一层

# 创建一个dockerfile文件,名字可以随便 建议Dockerfile # 文件中的内容 指令(大写) 参数 FROM centos VOLUME ["volume01","volume02"] CMD echo "----end----" CMD /bin/bash #这里的每个命令,就是镜像的一层!

启动自己的镜像

这个卷和外部一定有一个同步的目录

查看卷挂载的路径 docker inspect 容器id

测试一下刚才的文件是否同步出去了!

这种方式使用的十分多,因为我们通常会构建自己的镜像!

假设构建镜像时候没有挂载卷,要手动镜像挂载 -v 卷名:容器内路径!

数据卷容器

多个mysql同步数据

--volumes-from Mount volumes from the specified container(s) 实现容器间数据共享 # 启动三个容器,通过我们刚才自己写的镜像启动 # 开启第一个容器 docker01 [root@jsu ~]# docker run -it --name docekr01 kuangshen/centos:1.0 # 开启第二个容器 继承docker01 [root@jsu ~]# docker run -it --name docekr02 --volumes-from docker01 kuangshen/centos:1.0

# 测试: 可以删除docker01 查看docker02和docker03是否还可以访问这个文件 # 测试结果: 依旧可以访问

多个mysql实现数据共享

# 开启第一个mysql [root@jsu ~]# docker run -d -p 3306:3306 -v /home/mysql/conf:/etc/mysql/conf.d -v /home/mysql/data:/var/lib/mysql -e MYSQL_ROOT_PASSWORD=123456 --name mysql01 mysql:5.7 # 开启第二个 --volumes-from 实现容器间共享数据 [root@jsu ~]# docker run -d -p 3307:3306 -e MYSQL_ROOT_PASSWORD=123456 --name mysql02 --volumes-from mysql01 mysql:5.7 # 这个时候,可以实现两个容器数据同步!

结论:

容器之间的配置信息的传递,数据卷容器的生命周期一直持续到没有容器使用为止。

但是一旦你持久化到了本地,这个时候,本地的数据是不会删除的!

Docker File

Docker File介绍

dockerfile是用来构建docker镜像的文件!命令参数脚本!

构建步骤

编写一个dockerfile文件docker build构建成为一个镜像docker run 运行镜像docker push发布镜像(DockerHub 、阿里云仓库)

DockerFile构建过程

基础知识

每个保留关键字(指令)都必须是大写字母。执行从上到下的顺序#表示注释每一个指令都会创建提交一个新的镜像层,并提交!

Dockerfile是面向开发的,我们以后要发布项目,做镜像,就需要编写dockerfile文件,这个文件十分简单!

Docker镜像逐渐成企业交付(以前交付jar,war 现在是docker)的标准,必须要掌握!

步骤:开发、部署、运维

DockerFile:构建文件,定义了一切的步骤,源代码

DockerImages:通过DockerFile构建生成的镜像,最终发布和运行产品。

Docker容器:容器就是镜像运行起来提供服务。

DockerFile指令

FROM # 基础镜像,一切从这里开始构建 MAINTAINER # 镜像是谁写的, 姓名+邮箱 RUN # 镜像构建的时候需要运行的命令 ADD # 步骤,tomcat镜像,这个tomcat压缩包!添加内容 添加同目录 WORKDIR # 镜像的工作目录 VOLUME # 挂载的目录 EXPOSE # 保留端口配置 以前是-p CMD # 指定这个容器启动的时候要运行的命令,只有最后一个会生效,可被替代。 ENTRYPOINT # 指定这个容器启动的时候要运行的命令,可以追加命令 ONBUILD # 当构建一个被继承 DockerFile 这个时候就会运行ONBUILD的指令,触发指令。 COPY # 类似ADD,将我们文件拷贝到镜像中 ENV # 构建的时候设置环境变量!

DockerFile实战测试

构建一个自己的centos

# 1、编写DockerFile的文件 vim mydockerfile-centos FROM centos # 基于centos MAINTAINER Jsu<jsu242@126.com> # 作者 ENV MYPATH /usr/local # 环境变量 WORKDIR $MYPATH # 工作目录 RUN yum -y install vim # 安装vim RUN yum -y install net-tools # 安装net-tools EXPSE 80 # 开放端口 CMD echo $MYPATH CMD echo "---end---" CMD /bin/bash # 2、通过这个文件构成镜像 # 命令 docker build -f dockerfile文件路径 -t 镜像名:[tag] docker build -f mydockerfile-centos -t mycentos:0.1 . Successfully built fc001014fb23 Successfully tagged mycentos:0.1 # 3、运行 docker run -it mycentos

CMD 和 ENTRYPOINT 区别

CMD # 指定这个容器启动的时候要运行的命令,只有最后一个会生效,可被替代。 ENTRYPOINT # 指定这个容器启动的时候要运行的命令,可以追加命令

测试cmd:

# 1、编写dockerfile文件 [root@jsu dockerfile]# vim mydockerfile-centos-test FROM centos CMD ["ls","-a"] # 2、构建镜像 [root@jsu dockerfile]# docker build -f mydockerfile-centos-test -t cmdtest . # 3、run运行 发现 命令ls -a 生效了 [root@jsu dockerfile]# docker run 107322c65790 . .. .dockerenv bin dev etc home lib lib64 .. # 想追加一个命令 -l ls -al 发现报错了.. [root@jsu dockerfile]# docker run 107322c65790 -l docker: Error response from daemon: OCI runtime create failed: container_linux.go:349: starting container process caused "exec: \"-l\": executable file not found in $PATH": unknown. # cmd的清理下-l 替换了CMD["ls","-a"]命令,-l不是命令,所以报错了

测试ENTRYPOINT

# 1、编写dockerfile文件 [root@jsu dockerfile]# vim mydockerfile-centos-entry FROM centos ENTRYPOINT` ["ls","-a"] # 2、构建镜像 [root@jsu dockerfile]# docker build -f mydockerfile-centos-entry -t entrytest . # 3、run运行 [root@jsu dockerfile]# docker run 372b9fb343d8 . .. .dockerenv bin dev etc home lib lib64 ... # 想追加一个命令-l 是直接拼接在ENTRYPOINT命令的后面 ls -al 成功 [root@jsu dockerfile]# docker run 372b9fb343d8 -l total 56 drwxr-xr-x 1 root root 4096 Oct 19 02:04 . drwxr-xr-x 1 root root 4096 Oct 19 02:04 .. -rwxr-xr-x 1 root root 0 Oct 19 02:04 .dockerenv lrwxrwxrwx 1 root root 7 May 11 2019 bin -> usr/bin ...

实战:Tomcat镜像

1、准备镜像文件

2、编写dockerfile

FROM centos MAINTAINER Jsu<jsu242@126.com> copy readme.txt /usr/local/readme.txt # 复制文件 ADD jdk-8u141-linux-x64.tar.gz # 复制解压 ADD apache-tomcat-9.0.37.tar.gz # 复制解压 RUN yum -y install vim ENV MYPATH /usr/local # 设置环境变量 WORK $MYPATH # 设置工作目录 ENV JAVA_HOME /usr/local/jdk1.8.0_11 # 设置环境变量 ENV CLASSPATH $JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar ENV CATALINA_HOME /usr/local/apache-tomcat-9.0.37 ENV CATALINA_BASH /usr/local/apache-tomcat-9.0.37 ENV PATH $PATH:$JAVA_HOME/bin:$CATALINA_HOME/lib EXPOSE 8080 # 设置暴露的端口 CMD /usr/local/apache-tomcat-9.0.37/bin/startup.sh && tail -F /usr/local/apache-tomcat-9.0.37/logs/catalina.out # 设置默认命令

3、构建镜像

# 因为dockerfile命名使用默认命名 因此不用使用-f 指定文件 [root@jsu tomcat]# docker build -t mytomcat . Successfully built d10f82696395 Successfully tagged mytomcat:latest

4、启动镜像

$ docker run -d -p 8080:8080 --name tomcat01 -v /home/kuangshen/build/tomcat/test:/usr/local/apache-tomcat-9.0.37/webapps/test -v /home/kuangshen/build/tomcat/tomcatlogs/:/usr/local/apache-tomcat-9.0.37/logs mytomcat

发布镜像

Dockerhub

1、地址 https://hub.docker.com/

2、确定这个账号可以登录

3、登录

$ docker login --help Usage: docker login [OPTIONS] [SERVER] Log in to a Docker registry. If no server is specified, the default is defined by the daemon. Options: -p, --password string Password --password-stdin Take the password from stdin -u, --username string Username 12345678910

4、提交 push镜像

# 会发现push不上去,因为如果没有前缀的话默认是push到 官方的library # 解决方法: # 第一种 build的时候添加你的dockerhub用户名,然后在push就可以放到自己的仓库了 $ docker build -t dockerhub用户名/mytomcat:0.1 . # 第二种 使用docker tag 然后再次push $ docker tag 容器id dockerhub用户名/mytomcat:1.0 #然后再次push

dockerhub上可以看到

小结

Docker网络

Docker0

测试

三个网络:

# 问题: docker 是如何处理容器网络访问的?

[root@jsu ~]# docker run -d -P --name tomcat01 tomcat # 查看容器内部网络地址 ip addr ,发现容器启动的时候 会得到一个 eth0@if71 ip地址,docker分配的 [root@jsu ~]# docker exec -it tomcat01 ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever 70: eth0@if71: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default link/ether 02:42:ac:11:00:02 brd ff:ff:ff:ff:ff:ff link-netnsid 0 inet 172.17.0.2/16 brd 172.17.255.255 scope global eth0 valid_lft forever preferred_lft forever # 思考: linux能不能ping通容器内部! [root@jsu ~]# ping 172.25.23.157 PING 172.25.23.157 (172.25.23.157) 56(84) bytes of data. 64 bytes from 172.25.23.157: icmp_seq=1 ttl=64 time=0.051 ms 64 bytes from 172.25.23.157: icmp_seq=2 ttl=64 time=0.052 ms .... # 结论: linux可以ping通 docker容器内部

原理

1、我们每启动一个docker容器,docker就会给docker容器分配一个ip,我们只要按照了docker,就会有一个docker0桥接模式,使用的技术是veth-pair技术!

再次测试ip addr

2、在启动一个容器测试,发现又多了一对网卡~!

# 我们发现这个容器带来的网卡,都是一对一对的 # evth-pair 就是一对的虚拟设备接口,他们都是成对出现的,一段连接协议,一段彼此相连. # 正因为有这个特性,evth-pair 充当一个桥梁,连接各种虚拟网络设备的。 # OpenStac,Docker容器之间的连接,OVS的连接,都是使用 evth-pair技术

3、我们测试一下tomcat01和tomcat02能否ping通。

[root@jsu ~]# docker exec -it tomcat02 ping 172.25.23.157 PING 172.25.23.157 (172.25.23.157) 56(84) bytes of data. 64 bytes from 172.25.23.157: icmp_seq=1 ttl=64 time=0.094 ms 64 bytes from 172.25.23.157: icmp_seq=2 ttl=64 time=0.080 ms .... # 结论: 容器之间是可以互相ping通的!

网络流程图

结论: tomcat01和tomcat02 是公用的一个路由器,docker0. 所有的容器不指定网路的情况下,都是docker0路由的,docker会给我们容器分配一个默认的可用ip

小结

Docker使用的是Linux的桥接,宿主机是一个Docker容器的网桥 docker0

Docker中所有的网络接口都是虚拟的。虚拟的转发效率高!(内网传递文件!)

容器删除,对应的一对网桥就没了

思考场景: 我们编写了一个微服务,database url=ip: 项目不重启,数据ip换了,我们希望可以处理这个问题,可以通过名字来进行访问容器?

–link

# 当前问题 直接通过服务名 ping不通 [root@jsu ~]# docker exec -it tomcat02 ping tomcat01 ping: tomcat01: Name or service not known # ---- 如何解决? # ---- 通过 --link可以解决网络连通问题 [root@jsu ~]# docker run -d -P --name tomcat03 --link tomcat02 tomcat 80c59e7d6f8957e1d91233e52cac16a487aafdbd754664d51da0e3f9a2809b72 [root@jsu ~]# docker exec -it tomcat03 ping tomcat02 PING tomcat02 (172.17.0.3) 56(84) bytes of data. 64 bytes from tomcat02 (172.17.0.3): icmp_seq=1 ttl=64 time=0.124 ms 64 bytes from tomcat02 (172.17.0.3): icmp_seq=2 ttl=64 time=0.065 ms ^C --- tomcat02 ping statistics --- 2 packets transmitted, 2 received, 0% packet loss, time 3ms # 反向可以ping通么? --- 不可以 [root@jsu ~]# docker exec -it tomcat02 ping tomcat03 ping: tomcat03: Name or service not known

探究:docker inspect 容器id

其实这个tomcat03 就是在本地配置了tomcat02的配置?

# 查看hosts配置,在这里原理发现!! [root@jsu ~]# docker exec -it tomcat03 cat /etc/hosts 127.0.0.1 localhost ::1 localhost ip6-localhost ip6-loopback fe00::0 ip6-localnet ff00::0 ip6-mcastprefix ff02::1 ip6-allnodes ff02::2 ip6-allrouters 172.17.0.3 tomcat02 8cdb075f00a6 172.17.0.4 80c59e7d6f89

本质探究: --link就是我们在hosts配置中增加的一个172.17.0.3 tomcat02 8cdb075f00a6

我们现在玩docker 不建议使用–link了!

自定义网络! 不适用docker0!

docker0问题: 它不支持容器民不过连接访问。

自定义网络

查看所有的docker网络

网络模式

bridge: 桥接 docker(默认,自己创建也是用bridge模式)

none: 不配置网络(一般不用)

host:和宿主机共享网络

container: 容器网络连通!(用的少! 局限很大)

测试

# 直接启动命令 --net bridge,而这个就是我们的docker0 [root@jsu ~]# docker run -d -P --name tomcat01 tomcat [root@jsu ~]# docker run -d -P --name tomcat01 --net bridge tomcat # docker0特点: 默认,域名不能访问 --link可以打通连接! # 可以自定义一个网络 --driver bridge 桥接(默认) --subnet 192.168.0.0/16 子网地址 --gateway 192.168.0.1 网关 mynet [root@jsu ~]# docker network create --driver bridge --subnet 192.168.0.0/16 --gateway 192.168.0.1 mynet b70bb01fe93a27892d6a5bf47bcac4d2b14b6464cacd20c4e90b807202442a43 [root@jsu ~]# docker network ls NETWORK ID NAME DRIVER SCOPE 3638e75ee69e bridge bridge local 2388db343a29 host host local b70bb01fe93a mynet bridge local e3ce519ea581 none null local

[root@jsu ~]# docker run -d -P --name tomcat-net-01 --net mynet tomcat 1982ce78ae227e81cfcfbbeb516f363fe3af410f792ccd7d9c6799e2a9012885 [root@jsu ~]# docker run -d -P --name tomcat-net-02 --net mynet tomcat 20a9e86de0549f535f47ece5f8c9d5ba56fea2dbe7d4d37397c53fe950d34e9b [root@jsu ~]# docker network inspect mynet [ { "Name": "mynet", "Id": "b70bb01fe93a27892d6a5bf47bcac4d2b14b6464cacd20c4e90b807202442a43", "Created": "2020-10-20T17:16:29.468410648+08:00", "Scope": "local", "Driver": "bridge", "EnableIPv6": false, "IPAM": { "Driver": "default", "Options": {}, "Config": [ { "Subnet": "192.168.0.0/16", "Gateway": "192.168.0.1" } ] }, "Internal": false, "Attachable": false, "Ingress": false, "ConfigFrom": { "Network": "" }, "ConfigOnly": false, # "tomcat-net-01", 就是自己定义网络下的服务 "Containers": { "1982ce78ae227e81cfcfbbeb516f363fe3af410f792ccd7d9c6799e2a9012885": { "Name": "tomcat-net-01", "EndpointID": "2073337275fdc1785569eb6dbb0e556b0a0635f5d9d676821c3d5685ea8eb658", "MacAddress": "02:42:c0:a8:00:02", "IPv4Address": "192.168.0.2/16", "IPv6Address": "" }, "20a9e86de0549f535f47ece5f8c9d5ba56fea2dbe7d4d37397c53fe950d34e9b": { "Name": "tomcat-net-02", "EndpointID": "43dc6b15f5201bb5f818e60f4134670cf2222d6c1070f7f528b2269aef60d1b6", "MacAddress": "02:42:c0:a8:00:03", "IPv4Address": "192.168.0.3/16", "IPv6Address": "" } }, "Options": {}, "Labels": {} } ] # ------- # 现在不使用 --link 也可以通过ping服务名 ping通 [root@jsu ~]# docker exec -it tomcat-net-01 ping tomcat-net-02 PING tomcat-net-02 (192.168.0.3) 56(84) bytes of data. 64 bytes from tomcat-net-02.mynet (192.168.0.3): icmp_seq=1 ttl=64 time=0.056 ms 64 bytes from tomcat-net-02.mynet (192.168.0.3): icmp_seq=2 ttl=64 time=0.065 ms ^C --- tomcat-net-02 ping statistics --- 2 packets transmitted, 2 received, 0% packet loss, time 1ms

好处:

redis - 不同的集群使用不同的网络,保证集群是安全和健康的。mysql - 不同的进群使用不同的网络,保证集群是安全和健康的。

搭建Redis集群

shell脚本

# 创建网卡 docker network create redis --subnet 172.38.0.0/16 # 通过脚本创建六个redis配置 for port in $(seq 1 6);\ do \ mkdir -p /mydata/redis/node-${port}/conf touch /mydata/redis/node-${port}/conf/redis.conf cat << EOF >> /mydata/redis/node-${port}/conf/redis.conf port 6379 bind 0.0.0.0 cluster-enabled yes cluster-config-file nodes.conf cluster-node-timeout 5000 cluster-announce-ip 172.25.0.1${port} cluster-announce-port 6379 cluster-announce-bus-port 16379 appendonly yes EOF done # 通过脚本运行六个redis for port in $(seq 1 6);\ docker run -p 637${port}:6379 -p 1667${port}:16379 --name redis-${port} \ -v /mydata/redis/node-${port}/data:/data \ -v /mydata/redis/node-${port}/conf/redis.conf:/etc/redis/redis.conf \ -d --net redis --ip 172.25.0.1${port} redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf; docker run -p 6376:6379 -p 16676:16379 --name redis-6 \ -v /mydata/redis/node-6/data:/data \ -v /mydata/redis/node-6/conf/redis.conf:/etc/redis/redis.conf \ -d --net redis --ip 172.25.0.16 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf; docker exec -it redis-1 /bin/sh #redis默认没有bash redis-cli --cluster create 172.25.0.11:6379 172.25.0.12:6379 172.25.0.13:6379 172.25.0.14:6379 172.25.0.15:6379 172.25.0.16:6379 --cluster-replicas 1 /data # redis-cli --cluster create 172.25.0.11:6379 172.25.0.12:6379 172.25.0.13:6379 172.25.0.14:6379 172.25.0.15:6 379 172.25.0.16:6379 --cluster-replicas 1 >>> Performing hash slots allocation on 6 nodes... Master[0] -> Slots 0 - 5460 Master[1] -> Slots 5461 - 10922 Master[2] -> Slots 10923 - 16383 Adding replica 172.25.0.15:6379 to 172.25.0.11:6379 Adding replica 172.25.0.16:6379 to 172.25.0.12:6379 Adding replica 172.25.0.14:6379 to 172.25.0.13:6379 M: a2d3a6ee57efc13c3b8bbfdc881328a4ebb53fe7 172.25.0.11:6379 slots:[0-5460] (5461 slots) master M: d523a6160c8ea19764345b0b34cb677d2e1b6b24 172.25.0.12:6379 slots:[5461-10922] (5462 slots) master M: ba16761e89ea9550ce175e43a01cd18d456aaec3 172.25.0.13:6379 slots:[10923-16383] (5461 slots) master S: a0017067c6497cadab774e85083c72c20b00354c 172.25.0.14:6379 replicates ba16761e89ea9550ce175e43a01cd18d456aaec3 S: 5444c466af5b61a82d63dee49f31dfed69a2d462 172.25.0.15:6379 replicates a2d3a6ee57efc13c3b8bbfdc881328a4ebb53fe7 S: d1290894bf699e0ce30c9b104ccef27c19ec5a0d 172.25.0.16:6379 replicates d523a6160c8ea19764345b0b34cb677d2e1b6b24 Can I set the above configuration? (type 'yes' to accept): yes >>> Nodes configuration updated >>> Assign a different config epoch to each node >>> Sending CLUSTER MEET messages to join the cluster Waiting for the cluster to join .... >>> Performing Cluster Check (using node 172.25.0.11:6379) M: a2d3a6ee57efc13c3b8bbfdc881328a4ebb53fe7 172.25.0.11:6379 slots:[0-5460] (5461 slots) master 1 additional replica(s) M: d523a6160c8ea19764345b0b34cb677d2e1b6b24 172.25.0.12:6379 slots:[5461-10922] (5462 slots) master 1 additional replica(s) S: d1290894bf699e0ce30c9b104ccef27c19ec5a0d 172.25.0.16:6379 slots: (0 slots) slave replicates d523a6160c8ea19764345b0b34cb677d2e1b6b24 M: ba16761e89ea9550ce175e43a01cd18d456aaec3 172.25.0.13:6379 slots:[10923-16383] (5461 slots) master 1 additional replica(s) S: 5444c466af5b61a82d63dee49f31dfed69a2d462 172.25.0.15:6379 slots: (0 slots) slave replicates a2d3a6ee57efc13c3b8bbfdc881328a4ebb53fe7 S: a0017067c6497cadab774e85083c72c20b00354c 172.25.0.14:6379 slots: (0 slots) slave replicates ba16761e89ea9550ce175e43a01cd18d456aaec3 [OK] All nodes agree about slots configuration. >>> Check for open slots... >>> Check slots coverage... [OK] All 16384 slots covered.

搭建成功

最新回复(0)