Docker网络解决方案-Calico部署记录

Calico简单简介

Calico是一个纯三层的协议,为OpenStack虚机和Docker容器提供多主机间通信。Calico不使用重叠网络比如flannel和libnetwork重叠网络驱动,
它是一个纯三层的方法,使用虚拟路由代替虚拟交换,每一台虚拟路由通过BGP协议传播可达信息(路由)到剩余数据中心。

Calico 架构

Calico 是一个三层的数据中心网络方案,而且方便集成 OpenStack 这种 IaaS 云架构,能够提供高效可控的 VM、容器、裸机之间的通信。
结合上面这张图,我们来过一遍 Calico 的核心组件:

Felix,Calico agent,跑在每台需要运行 workload 的节点上,主要负责配置路由及 ACLs 等信息来确保 endpoint 的连通状态;

etcd,分布式键值存储,主要负责网络元数据一致性,确保 Calico 网络状态的准确性;

BGP Client(BIRD), 主要负责把 Felix 写入 kernel 的路由信息分发到当前 Calico 网络,确保 workload 间的通信的有效性;

BGP Route Reflector(BIRD), 大规模部署时使用,摒弃所有节点互联的 mesh 模式,通过一个或者多个BGP Route Reflector来完成集中式的路由分发;

通过将整个互联网的可扩展 IP 网络原则压缩到数据中心级别,Calico 在每一个计算节点利用Linux kernel实现了一个高效的vRouter来负责数据转发而每个vRouter通过BGP 
协议负责把自己上运行的 workload 的路由信息像整个 Calico 网络内传播 - 小规模部署可以直接互联,大规模下可通过指定的 
BGP route reflector 来完成。

这样保证最终所有的 workload 之间的数据流量都是通过 IP 包的方式完成互联的。

Calico原理

Calico 节点组网可以直接利用数据中心的网络结构(支持 L2 或者 L3),不需要额外的 NAT,隧道或者 VXLAN overlay network。
如上图所示,这样保证这个方案的简单可控,而且没有封包解包,节约 CPU 计算资源的同时,提高了整个网络的性能。
此外,Calico 基于 iptables 还提供了丰富而灵活的网络 policy, 保证通过各个节点上的 ACLs 来提供 workload 的多租户隔离、安全组以及其他可达性限制等功能。

calico网络通信模型

calico是纯三层的SDN 实现,它基于BPG 协议和Linux自身的路由转发机制,不依赖特殊硬件,容器通信也不依赖iptables NAT或Tunnel 等技术。
能够方便的部署在物理服务器、虚拟机(如 OpenStack)或者容器环境下。同时calico自带的基于iptables的ACL管理组件非常灵活,能够满足比较复杂的安全隔离需求。

在主机网络拓扑的组织上,calico的理念与weave类似,都是在主机上启动虚拟机路由器,将每个主机作为路由器使用,组成互联互通的网络拓扑。当安装了calico的主机组成集群后,
其拓扑如下图所示: 
每个主机上都部署了calico/node作为虚拟路由器,并且可以通过calico将宿主机组织成任意的拓扑集群。当集群中的容器需要与外界通信时,
就可以通过BGP协议将网关物理路由器加入到集群中,使外界可以直接访问容器IP,而不需要做任何NAT之类的复杂操作。

当容器通过calico进行跨主机通信时,其网络通信模型如下图所示: 
从上图可以看出,当容器创建时,calico为容器生成veth pair,一端作为容器网卡加入到容器的网络命名空间,并设置IP和掩码,一端直接暴露在宿主机上,
并通过设置路由规则,将容器IP暴露到宿主机的通信路由上。于此同时,calico为每个主机分配了一段子网作为容器可分配的IP范围,这样就可以根据子网的
CIDR为每个主机生成比较固定的路由规则。

当容器需要跨主机通信时,主要经过下面的简单步骤:
1)容器流量通过veth pair到达宿主机的网络命名空间上。
2)根据容器要访问的IP所在的子网CIDR和主机上的路由规则,找到下一跳要到达的宿主机IP。
3)流量到达下一跳的宿主机后,根据当前宿主机上的路由规则,直接到达对端容器的veth pair插在宿主机的一端,最终进入容器。

从上面的通信过程来看,跨主机通信时,整个通信路径完全没有使用NAT或者UDP封装,性能上的损耗确实比较低。但正式由于calico的通信机制是完全基于三层的,这种机制也带来了一些缺陷,例如:
1)calico目前只支持TCP、UDP、ICMP、ICMPv6协议,如果使用其他四层协议(例如NetBIOS协议),建议使用weave、原生overlay等其他overlay网络实现。
2)基于三层实现通信,在二层上没有任何加密包装,因此只能在私有的可靠网络上使用。
3)流量隔离基于iptables实现,并且从etcd中获取需要生成的隔离规则,有一些性能上的隐患。

Calico实现Docker跨主机容器通信的示例配置说明

1)环境准备

机器信息
node-1:182.48.115.233    centos7.2    安装Docker、etcd、calicoctl
node-2:182.48.115.236    centos7.2    安装Docker、etcd、calicoctl
node-3:182.48.115.239    centos7.2    安装Docker、etcd、calicoctl

设置三台机器的主机名
node-1
[root@node-1 ~]# hostnamectl --static set-hostname  node-1

node-2
[root@node-2 ~]# hostnamectl --static set-hostname  node-2

node-3
[root@node-3 ~]# hostnamectl --static set-hostname  node-3

关闭三台主机的防火墙。若开启iptables防火墙,则需要打开2380端口通信。
[root@node-1 ~]# systemctl disable firewalld.service
[root@node-1 ~]# systemctl stop firewalld.service

在三台机器上都要设置hosts,均执行如下命令:
[root@node-1 ~]# vim /etc/hosts
182.48.115.233    node-1
182.48.115.236    node-2
182.48.115.239    node-3

2)安装docker环境

三个节点都要安装docker
[root@node-1 ~]# yum install -y docker
[root@node-1 ~]# systemctl start docker
[root@node-1 ~]# docker pull nginx
[root@node-1 ~]# docker images
REPOSITORY          TAG                 IMAGE ID            CREATED             SIZE
docker.io/nginx     latest              3448f27c273f        6 days ago          109.4 MB
 
在三个节点上配置docker网桥,三个网桥指定为不同的网络,网络配置细节如下:
node-1节点,Docker网桥网络指定为192.168.10.1/24
[root@node-1 ~]# systemctl stop docker
[root@node-1 ~]# ip link set dev docker0 down
[root@node-1 ~]# brctl delbr docker0
[root@node-1 ~]# brctl addbr bridge0
[root@node-1 ~]# ip addr add 192.168.10.1/24 dev bridge0      //注意,这个192.168.10.1就是所建容器的网关地址。通过docker inspect container_id能查看到
[root@node-1 ~]# ip link set dev bridge0 up
[root@node-1 ~]# ip addr show bridge0
[root@node-1 ~]# vim /etc/sysconfig/docker      //即将虚拟的桥接口由默认的docker0改为bridge0
将
OPTIONS='--selinux-enabled --log-driver=journald'
改为
OPTIONS='--selinux-enabled --log-driver=journald -b=bridge0'    //即添加-b=bridge0
   
[root@node-1 ~]# systemctl restart docker
[root@node-1 ~]# ifconfig         //发现只有bridge0虚拟网桥,没有默认的docker0网桥了。(如果还有docker0,就再次执行"ip link set dev docker0 down && brctl delbr docker0 && systemctl restart docker)
 
与上面操作同理:
node2节点的网桥网络指定为192.168.20.1/24
node3节点的网桥网络指定为192.168.30.1/24

3)安装并配置etcd(这里采用的是集群模式,建议做集群)

etcd 是一个分布式一致性k-v存储系统,可用于服务注册发现与共享配置,具有以下优点:
1)简单:相比于晦涩难懂的paxos算法,etcd基于相对简单且易实现的raft算法实现一致性,并通过gRPC提供接口调用
2)安全:支持TLS通信,并可以针对不同的用户进行对key的读写控制
3)高性能:10,000/秒的写性能
 
 
etcd是一个分布式高可用的键值(key/value)存储系统,主要用于服务注册发现与共享配置,etcd 会在集群的各个节点中复制这些数据并保证这些数据始终正确。具有以下优点:
1)简单:相比于晦涩难懂的paxos算法,etcd基于相对简单且易实现的raft算法实现一致性,并通过gRPC提供接口调用
2)安全:支持TLS通信,并可以针对不同的用户进行对key的读写控制
3)高性能:10,000/秒的写性能
 
etcd是由CoreOS开发并维护的,灵感来自于 ZooKeeper 和 Doozer,它使用Go语言编写,并通过Raft一致性算法处理日志复制以保证强一致性,有基于HTTP+JSON的API接口。
Raft是一个来自Stanford的新的一致性算法,适用于分布式系统的日志复制,Raft通过选举的方式来实现一致性,在Raft中,任何一个节点都可能成为Leader。Google的容器
集群管理系统Kubernetes、开源PaaS平台Cloud Foundry和CoreOS的Fleet都广泛使用了etcd。raft 共识算法的优点在于可以在高效的解决分布式系统中各个节点日志内容一致
性问题的同时,也使得集群具备一定的容错能力。即使集群中出现部分节点故障、网络故障等问题,仍可保证其余大多数节点正确的步进。甚至当更多的节点(一般来说超过集
群节点总数的一半)出现故障而导致集群不可用时,依然可以保证节点中的数据不会出现错误的结果。
 
----------------------------------------------------------------------------------------------------------------------------------
在三个节点机上都要安装etcd,构成etcd集群环境
(etcd下载:https://pan.baidu.com/s/1jIsTV3C    密码:djcv)
[root@node-1 ~]# curl -L  https://github.com/coreos/etcd/releases/download/v2.3.6/etcd-v2.3.6-linux-amd64.tar.gz -o etcd-v2.3.6-linux-amd64.tar.gz
[root@node-1 ~]# tar zxvf etcd-v2.3.6-linux-amd64.tar.gz
[root@node-1 ~]# cd etcd-v2.3.6-linux-amd64/
[root@node-1 etcd-v2.3.6-linux-amd64]#
 
 
如上在三个节点机上安装好etcd后,进行etcd静态配置。
静态配置主要预先将集群的配置信息分配好,然后将集群分布启动,集群将根据配置信息组成集群。这里按如下的配置信息分别启动三个etcd。
 
在node-1上的etcd配置:
[root@node-1 ~]# ./etcd --name node1 --initial--advertise-peer-urls http://182.48.115.233:2380 \
--listen-peer-urls http://0.0.0.0:2380 \
--listen-client-urls http://0.0.0.0:2379,http://127.0.0.1:4001 \
--advertise-client-urls http://0.0.0.0:2379 \
--initial-cluster-token etcd-cluster \
--initial-cluster node1=http://182.48.115.233:2380,node2=http://182.48.115.236:2380,node3=http://182.48.115.239:2380\
--initial-cluster-state new
 
在node-2上的etcd配置:
[root@node-2 ~]# ./etcd --name node2 --initial--advertise-peer-urls http://182.48.115.236:2380 \
--listen-peer-urls http://0.0.0.0:2380 \
--listen-client-urls http://0.0.0.0:2379,http://127.0.0.1:4001 \
--advertise-client-urls http://0.0.0.0:2379 \
--initial-cluster-token etcd-cluster \
--initial-cluster node1=http://182.48.115.233:2380,node2=http://182.48.115.236:2380,node3=http://182.48.115.239:2380\
--initial-cluster-state new
 
在node-3上的etcd配置:
[root@node-3 ~]# ./etcd --name node3 --initial--advertise-peer-urls http://182.48.115.239:2380 \
--listen-peer-urls http://0.0.0.0:2380 \
--listen-client-urls http://0.0.0.0:2379,http://127.0.0.1:4001 \
--advertise-client-urls http://0.0.0.0:2379 \
--initial-cluster-token etcd-cluster \
--initial-cluster node1=http://182.48.115.233:2380,node2=http://182.48.115.236:2380,node3=http://182.48.115.239:2380\
--initial-cluster-state new
 
按如上配置分别启动集群,启动集群后,将会进入集群选举状态,若出现大量超时,则需要检查主机的防火墙是否关闭,或主机之间是否能通过2380端口通信,集群建立后通过以下命令检查集群状态。
 
特别注意一个细节:
上面的命令执行后会一直在前台执行中,不能关闭当前终端窗口,关闭当前窗口后,上面启动的etcd集群程序就会关闭!!
正确的做法是将其切到后台执行,在上面etcd集群程序启动后,依次:
1)按键ctrl+z   将其程序挂起,会出现一个序列号,一般为1
2)执行命令:bg 1      1就是上面挂起后出现的序列号
3)执行命令disown -a     这样就将这个程序切到后台运行了
 
然后关闭当前程序运行的终端窗口,然后ps -ef|grep etcd,会发现etcd的集群程序还在运行中:
[root@node-1 ~]# ps -ef|grep etcd
root     13138     1  1 14:33 ?        00:00:07 ./etcd -name node1 --initial--advertise-peer-urls http://182.48.115.233:2380 --listen-peer-urls http://0.0.0.0:2380 --listen-client-urls http://0.0.0.0:2379,http://127.0.0.1:4001 --advertise-client-urls http://0.0.0.0:2379 --initial-cluster-token etcd-cluster --initial-cluster node1=http://182.48.115.233:2380,node2=http://182.48.115.236:2380,node3=http://182.48.115.239:2380 --initial-cluster-state new
root     13226 13186  0 14:40 pts/1    00:00:00 grep --color=auto etcd
[root@node-1 ~]# lsof -i:2380
COMMAND   PID USER   FD   TYPE  DEVICE SIZE/OFF NODE NAME
etcd    13138 root    5u  IPv6 1827574      0t0  TCP *:2380 (LISTEN)
etcd    13138 root    8u  IPv6 1831276      0t0  TCP node-1:2380->node-3:60886 (ESTABLISHED)
etcd    13138 root   11u  IPv4 1827581      0t0  TCP node-1:49991->node-2:2380 (ESTABLISHED)
 
以上配置项说明(/root/etcd-v2.3.6-linux-amd64/etcd --help 查看帮助信息):
--name    etcd集群中的节点名,这里可以随意,可区分且不重复就行 
---listen-peer-urls     监听的用于节点之间通信的url,可监听多个,集群内部将通过这些url进行数据交互(如选举,数据同步等)
---initial--advertise-peer-urls     建议用于节点之间通信的url,节点间将以该值进行通信。
---listen-client-urls     监听的用于客户端通信的url,同样可以监听多个。
---advertise-client-urls    建议使用的客户端通信url,该值用于etcd代理或etcd成员与etcd节点通信。
---initial-cluster-token etcd-cluster-1   节点的token值,设置该值后集群将生成唯一id,并为每个节点也生成唯一id,当使用相同配置文件再启动一个集群时,只要该token值不一样,etcd集群就不会相互影响。
---initial-cluster   也就是集群中所有的initial--advertise-peer-urls 的合集
---initial-cluster-state new    新建集群的标志
 
查看集群成员(在三个节点机任意一个上面查看都可以,因为做的是集群环境):
[root@node-1 etcd-v2.3.6-linux-amd64]# ./etcdctl  member list                                        //如下,发现node1节点目前是leader
4590a741acf3f320: name=node1 peerURLs=http://182.48.115.233:2380 clientURLs=http://0.0.0.0:2379 isLeader=true
5e984e2093d56d63: name=node3 peerURLs=http://182.48.115.239:2380 clientURLs=http://0.0.0.0:2379 isLeader=false
951afc93e5278fdc: name=node2 peerURLs=http://182.48.115.236:2380 clientURLs=http://0.0.0.0:2379 isLeader=false
 
检查集群健康状态(在三个节点中的任意一个上面都可以查看)
[root@node-1 etcd-v2.3.6-linux-amd64]# ./etcdctl cluster-health
member 4590a741acf3f320 is healthy: got healthy result from http://0.0.0.0:2379
member 5e984e2093d56d63 is healthy: got healthy result from http://0.0.0.0:2379
member 951afc93e5278fdc is healthy: got healthy result from http://0.0.0.0:2379
cluster is healthy
 
如上集群搭建成功。

4)启动Calico服务(这是安装最新版的做法,新版和老版的命令已有所改变)

首先在三个节点机上下载calico的命令管理工具calicoctl(百度云下载地址:https://pan.baidu.com/s/1pKKTGbL     密码:r7sm)
[root@node-1 ~]# wget http://www.projectcalico.org/builds/calicoctl
[root@node-1 ~]# chmod +x calicoctl 
[root@node-1 ~]# mv calicoctl /usr/local/bin/
[root@node-1 ~]# calicoctl --help                  //查看帮助信息

启动Calico服务
在Docker环境中Calico服务是做为容器来运行的,使用host的网络配置。所有容器配置使用Calico服务,做为calico节点互相通信。
Calico在每个主机上通过一个自己的container与其他主机或者网络通讯,即calico-node的container,这个container里面包含了Bird路由管理、Felix协议等。

千万别忘了在三个节点上都要下载calico的node镜像
(可以先在一个节点上下载镜像,然后将镜像通过docker save导出保存到本地,再将镜像拷贝到其他节点上通过docker load导入,这样对于其他节点来说,比使用docker pull要快)
[root@node-1 ~]# docker pull calico/node
[root@node-1 ~]# docker pull calico/node-libnetwork
[root@node-1 ~]# docker images
REPOSITORY                         TAG                 IMAGE ID            CREATED             SIZE
docker.io/calico/node              latest              1e0928760e74        11 hours ago        255.2 MB
docker.io/nginx                    latest              3448f27c273f        6 days ago          109.4 MB
docker.io/calico/node-libnetwork   latest              84d99cab9fc4        7 months ago        70.2 MB


下面分别在三个节点上,以Docker方式启动calico-node(这个命令会执行一段时间,耐心等待......)
node-1
[root@node-1 ~]# calicoctl node run --ip=182.48.115.233
Running command to load modules: modprobe -a xt_set ip6_tables
Enabling IPv4 forwarding
.......
Using node name: node-1
Starting libnetwork service
Calico node started successfully

node-2
[root@node-2 ~]# calicoctl node run --ip=182.48.115.236

node-3
[root@node-3 ~]# calicoctl node run --ip=182.48.115.239

可以在三个节点上查看calico-node启动情况
[root@node-1 ~]# docker ps
CONTAINER ID        IMAGE                        COMMAND             CREATED             STATUS              PORTS               NAMES
2ac613b1af9a        quay.io/calico/node:latest   "start_runit"       22 seconds ago      Up 17 seconds                           calico-node
[root@node-1 ~]# ps -ef|grep calico
root     14339 14336  0 15:43 ?        00:00:00 svlogd -tt /var/log/calico/bird6
root     14340 14336  0 15:43 ?        00:00:00 bird6 -R -s /var/run/calico/bird6.ctl -d -c /etc/calico/confd/config/bird6.cfg
root     14341 14337  0 15:43 ?        00:00:00 svlogd /var/log/calico/confd
root     14342 14337  0 15:43 ?        00:00:00 confd -confdir=/etc/calico/confd -interval=5 -watch -no-discover --log-level=debug -node=http://127.0.0.1:2379 -client-key= -client-cert= -client-ca-keys=
root     14343 14334  0 15:43 ?        00:00:00 svlogd /var/log/calico/felix
root     14344 14334  2 15:43 ?        00:00:03 calico-felix
root     14346 14338  0 15:43 ?        00:00:00 svlogd /var/log/calico/libnetwork
root     14349 14335  0 15:43 ?        00:00:00 svlogd -tt /var/log/calico/bird
root     14350 14335  0 15:43 ?        00:00:00 bird -R -s /var/run/calico/bird.ctl -d -c /etc/calico/confd/config/bird.cfg
root     14597 13854  0 15:45 pts/2    00:00:00 grep --color=auto calico

查看节点状态信息(在三个节点上都可以查看)
[root@node-1 ~]# calicoctl node status
Calico process is running.

IPv4 BGP status
+----------------+-------------------+-------+----------+-------------+
|  PEER ADDRESS  |     PEER TYPE     | STATE |  SINCE   |    INFO     |
+----------------+-------------------+-------+----------+-------------+
| 182.48.115.236 | node-to-node mesh | up    | 07:47:20 | Established |
| 182.48.115.239 | node-to-node mesh | up    | 07:52:55 | Established |
+----------------+-------------------+-------+----------+-------------+

IPv6 BGP status
No IPv6 peers found.

[root@node-2 ~]# calicoctl node status
Calico process is running.

IPv4 BGP status
+----------------+-------------------+-------+----------+-------------+
|  PEER ADDRESS  |     PEER TYPE     | STATE |  SINCE   |    INFO     |
+----------------+-------------------+-------+----------+-------------+
| 182.48.115.233 | node-to-node mesh | up    | 07:46:19 | Established |
| 182.48.115.239 | node-to-node mesh | up    | 07:51:54 | Established |
+----------------+-------------------+-------+----------+-------------+

IPv6 BGP status
No IPv6 peers found.

[root@node-3 ~]# calicoctl node status
Calico process is running.

IPv4 BGP status
+----------------+-------------------+-------+----------+-------------+
|  PEER ADDRESS  |     PEER TYPE     | STATE |  SINCE   |    INFO     |
+----------------+-------------------+-------+----------+-------------+
| 182.48.115.233 | node-to-node mesh | up    | 09:51:54 | Established |
| 182.48.115.236 | node-to-node mesh | up    | 09:51:54 | Established |
+----------------+-------------------+-------+----------+-------------+

IPv6 BGP status
No IPv6 peers found.


使用calicoctl创建ipPool
在启动别的容器之前,我们需要配置一个IP地址池带有ipip和nat-outgoing选项。所以带有有效配置的容器就可以访问互联网,在每个节点上运行下面的命令:

先查看calico的ip池(任意一个节点上都能查看)
[root@node-1 ~]# calicoctl get ipPool
CIDR                       
192.168.0.0/16             
fd80:24e2:f998:72d6::/64   

[root@node-1 ~]# calicoctl get ippool -o wide
CIDR                       NAT    IPIP    
192.168.0.0/16             true   false   
fd80:24e2:f998:72d6::/64   true   false   

上面查出的192.168.0.0/16是calico默认的网络。
可以使用命令"calicoctl delete ippool 192.168.0.0/16"删除calico默认的网络,这是非必要操作,可以保留calico默认的网络!

现在开始在三个节点机器上使用calicoctl创建ipPool
创建ip pool首先定义一个资源文件ipPool.yaml,如下:

node-1节点机器上
[root@node-1 ~]# vim ipPool.yaml 
apiVersion: v1
kind: ipPool
metadata:
  cidr: 192.168.10.1/24
spec:
  ipip:
    enabled: true
  nat-outgoing: true
  disabled: false

[root@node-1 ~]# calicoctl create -f ipPool.yaml
Successfully created 1 'ipPool' resource(s)

[root@node-1 ~]# calicoctl get ippool -o wide
CIDR                       NAT    IPIP    
192.168.0.0/16             true   false   
192.168.10.1/24            true   true             //两个true,说明使用了IPIP
fd80:24e2:f998:72d6::/64   true   false

--------------------------------------------------------------------------------
上面在创建ipPool的时候,使用了IPIP。也可以选择不使用IPIP,如下:(这里我选择的是使用IPIP)
[root@node-1 ~]# vim ipPool.yaml 
apiVersion: v1
kind: ipPool
metadata:
  cidr: 192.168.10.1/24
spec:
  ipip:
    enabled: false
  nat-outgoing: true
  disabled: false
-------------------------------------------------------------------------------

同理,node-2节点机器上
[root@node-2 ~]# vim ipPool.yaml
apiVersion: v1
kind: ipPool
metadata:
  cidr: 192.168.20.1/24
spec:
  ipip:
    enabled: true
  nat-outgoing: true
  disabled: false
[root@node-2 ~]# calicoctl create -f ipPool.yaml
Successfully created 1 'ipPool' resource(s)
[root@node-2 ~]# calicoctl get ippool -o wide
CIDR                       NAT    IPIP    
192.168.0.0/16             true   false   
192.168.10.1/24            true   true    
192.168.20.1/24            true   true    
fd80:24e2:f998:72d6::/64   true   false  

node-3节点机器上
[root@node-3 ~]# vim ipPool.yaml
apiVersion: v1
kind: ipPool
metadata:
  cidr: 192.168.30.1/24
spec:
  ipip:
    enabled: true
  nat-outgoing: true
  disabled: false
[root@node-3 ~]# calicoctl create -f ipPool.yaml
Successfully created 1 'ipPool' resource(s)
[root@node-3 ~]# calicoctl get ippool -o wide
CIDR                       NAT    IPIP    
192.168.0.0/16             true   false   
192.168.10.1/24            true   true    
192.168.20.1/24            true   true    
192.168.30.1/24            true   true    
fd80:24e2:f998:72d6::/64   true   false  

由上面可以看出,当三个节点都创建了ipPool后,再次查看calico的ip池,就会发现三个节点的Docker网桥网络ip都显示出来了

3)容器网络配置

在3个节点上启动容器

------------node-1节点上创建容器--------------
[root@node-1 ~]# docker run -itd --name=my-test1 docker.io/nginx
0f09da38cb1a9b0155bcb1ed9fe8192676355e06ed474d411fc31f1207a20a63
[root@node-1 ~]# docker exec -ti my-test1 /bin/bash                   //登陆my-test1容器,发现容器ip是安装指定的docker网桥网络分配的
root@0f09da38cb1a:/# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default 
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: tunl0@NONE: <NOARP> mtu 1480 qdisc noop state DOWN group default 
    link/ipip 0.0.0.0 brd 0.0.0.0
2964: eth0@if2965: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default 
    link/ether 02:42:c0:a8:0a:02 brd ff:ff:ff:ff:ff:ff link-netnsid 0
    inet 192.168.10.2/24 scope global eth0
       valid_lft forever preferred_lft forever
    inet6 fe80::42:c0ff:fea8:a02/64 scope link 
       valid_lft forever preferred_lft forever


------------node-2节点上创建容器--------------
[root@node-2 ~]# docker run -itd  --name=my-test2 docker.io/nginx
707a1e64a3072b1c49dad3009e63b7307ab725fa43147c1ad3c809f5214c761b
[root@node-2 ~]# docker exec -ti my-test2 /bin/bash
root@707a1e64a307:/# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: tunl0@NONE: <NOARP> mtu 1480 qdisc noop state DOWN group default qlen 1
    link/ipip 0.0.0.0 brd 0.0.0.0
15: eth0@if16: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default 
    link/ether 02:42:c0:a8:14:02 brd ff:ff:ff:ff:ff:ff link-netnsid 0
    inet 192.168.20.2/24 scope global eth0
       valid_lft forever preferred_lft forever
    inet6 fe80::42:c0ff:fea8:1402/64 scope link 
       valid_lft forever preferred_lft forever

------------node-3节点上创建容器--------------
[root@node-3 ~]# docker run -itd --name=my-test3 docker.io/nginx
d52d18d9e1eb0e309ece7cc20c76654c195db5aee609cb3a2075dfcb1aff2425
[root@node-3 ~]# docker exec -ti my-test3 /bin/bash
root@d52d18d9e1eb:/# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default 
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: tunl0@NONE: <NOARP> mtu 1480 qdisc noop state DOWN group default 
    link/ipip 0.0.0.0 brd 0.0.0.0
39: eth0@if40: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default 
    link/ether 02:42:c0:a8:1e:02 brd ff:ff:ff:ff:ff:ff link-netnsid 0
    inet 192.168.30.2/24 scope global eth0
       valid_lft forever preferred_lft forever
    inet6 fe80::42:c0ff:fea8:1e02/64 scope link 
       valid_lft forever preferred_lft forever
root@d52d18d9e1eb:/# ping 192.168.10.2
PING 192.168.10.2 (192.168.10.2): 56 data bytes
64 bytes from 192.168.10.2: icmp_seq=0 ttl=62 time=0.799 ms
^C--- 192.168.10.2 ping statistics ---
1 packets transmitted, 1 packets received, 0% packet loss
round-trip min/avg/max/stddev = 0.799/0.799/0.799/0.000 ms
root@d52d18d9e1eb:/# ping 192.168.20.2
PING 192.168.20.2 (192.168.20.2): 56 data bytes
64 bytes from 192.168.20.2: icmp_seq=0 ttl=62 time=1.021 ms
^C--- 192.168.20.2 ping statistics ---
1 packets transmitted, 1 packets received, 0% packet loss
round-trip min/avg/max/stddev = 1.021/1.021/1.021/0.000 ms

可以发现,在三个节点上创建的容器都是按照指定的docker网桥网络分配的ip,并且各节点机上的容器间的ip是可以相互ping通的!
除此之外:
1)容器可以访问外网(默认采用的是bridge网桥模式,只要宿主机能访问外网,容器也就可以)。
2)宿主机可以ping通任意一个节点上的容器ip
3)容器可以ping通任意一个节点ip

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏云计算

Kubernetes服务网格(第8部分):Linkerd作为入口控制器

Linkerd旨在使应用程序内部服务间的通信安全,快速和可靠。但是,这些目标同样适用于网络的接入层(应用程序对外的服务)。在这篇文章中,我们将展示Linkerd...

5288
来自专栏杂文共赏

使用DCHQ自动部署和管理Docker Cloud /虚拟Java微服务

本文演示了一个在云或虚拟平台上,用于自动化部署和管理Docker Java微服务应用程序的解决方案。我们通过扩展现有项目Chris Richardson的示例—...

2024
来自专栏地方网络工作室的专栏

打造前端MAC工作站(六)MAC上的压缩软件,keka和atool

打造前端MAC工作站(六)MAC上的压缩软件,keka和atool 前言 在MAC下面对于windows重度用户来说,可能最不适应的就是压缩软件了。因为没有一款...

3149
来自专栏有刻

Docker 小记 — Compose & Swarm

52211
来自专栏禅林阆苑

csxiaoyao.com整站第二次迁移记录

csxiaoyao的主页( csxiaoyao.com / csxiaoyao.cn / victorsun.cn / sunshinestudio.cn )从...

62931
来自专栏FreeBuf

内网漫游:通过RDP劫持向远程系统执行任意代码

远程桌面协议(RDP)被广泛应用于管理员的内部网络。该协议允许系统所有者以及管理员远程管理其Windows环境。然而,RDP在为我们带来方便的同时,也为虎视眈眈...

1832
来自专栏北京马哥教育

KVM虚拟化平台部署及管理

前言 KVM即Kernel Virtual Machine,最初是由以色列公司Qumranet开发。2007年2月被导入Linux 2.6.20核心中,成为内核...

4757
来自专栏云计算教程系列

现代化Kubernetes的应用程序

现代无状态应用程序的构建和设计可在Docker等软件容器中运行,并由Kubernetes等容器集群管理。它们使用Cloud Native和Twelve Fact...

1550
来自专栏晨星先生的自留地

如何快速的搭建漏洞环境到复现到PoC

6671
来自专栏技术翻译

使用Kubernetes和Ambassador API Gateway部署Java应用程序

在本文中,您将学习如何将三个简单的Java服务部署到Kubernetes(通过新的Docker for Mac / Windows集成在本地运行),并通过Kub...

7082

扫码关注云+社区

领取腾讯云代金券