前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >『中级篇』overlay网络和etcd实现多机的容器通信(31)

『中级篇』overlay网络和etcd实现多机的容器通信(31)

原创
作者头像
IT架构圈
发布2018-07-14 01:13:39
1.1K0
发布2018-07-14 01:13:39
举报
文章被收录于专栏:IT架构圈IT架构圈

前面的课程主要集中在同一个docker,同一个linux机器,不同的容器之前是如何通信。这次主要说的不同机器之前如何通信。这篇的源码在:https://github.com/limingios/docker.git 中的docke/No.2/labs/flask-redis/

覆盖网络(overlay network<sup> 1</sup>  )简单说来覆盖网络就是应用层网络,它是面向应用层的,不考虑或很少考虑网络层,物理层的问题,说白了就是2个不在一起的网络组成对应的网络,方便通信的方式。

这次按照上次讲解,做个多机器之前的通信 flask-redis 和redis 在不同的机器上

之前建立的docker-node1 和docker-node2 现在启动他们 看看他们之前是否可以ping通

  • 启动2个窗口,查看各自的ip 信息vagrant ssh docker-node1 ip a
  • docker-node1
  1. docker-node2vagrant ssh docker-node2 ip a
  • 互相ping下#docker-node1 里面ping 172.28.128.4 直接访问node2 ping 172.28.128.4 #docker-node2 里面ping 172.28.128.3 直接访问node1 ping 172.28.128.3说明这2个机器是互通的。
  • 现在我用docker内部的ip 互相ping也就是docker1的172.17.0.2 ping一下docker2的172.17.0.3 其实是ping不通的,因为他们不在同一个网络,如果想通信有没有方式,其实暴露端口的方式-p 也是可以的,还有一个更好的方式 就是通过vxlan的方式。
  • 什么是VXLAN? VXLAN-Virtual eXtensible Local Area Network(虚拟化可扩展局域网) VXLAN是NVO3(Network Virtualization over Layer3)中的一种网络虚拟化技术,通过将VM或物理服务器发出的数据包封装在UDP中,并使用物理网络的IP/MAC作为报文头进行封装,然后在IP网络上传输,到达目的地后由隧道终结点解封装并将数据发送给目标虚拟机或物理服务器。

这里不讲解VXLAN啦,我也不太熟悉,现在说的分布式存储的方式来完成docker1内部的容器和docker2内部的容器之间的通信。通过的技术是:etcd的分布式存储方式来完成。

etcd的2台机器安装

随着CoreOS和Kubernetes等项目在开源社区日益火热,它们项目中都用到的etcd组件作为一个高可用、强一致性的服务发现存储仓库,渐渐为开发人员所关注。在云计算时代,如何让服务快速透明地接入到计算集群中,如何让共享配置信息快速被集群中的所有机器发现,更为重要的是,如何构建这样一套高可用、安全、易于部署以及响应快速的服务集群,已经成为了迫切需要解决的问题。etcd为解决这类问题带来了福音。

  • 分布式主要就是为了多台机器,每个机器里面的容器分到的ip都不相同,这样让这些容器组织成一个网络的话,他们之前就可以进行通信了,因为ip和名称都是唯一的。不会带来冲突。
  1. docker-node1上安装etcdsudo yum -y install wget wget https://github.com/coreos/etcd/releases/download/v3.0.12/etcd-v3.0.12-linux-amd64.tar.gz tar zxvf etcd-v3.0.12-linux-amd64.tar.gz cd etcd-v3.0.12-linux-amd64 #查看ip地址 172.28.128.3 ip a
代码语言:txt
复制
#注意ip地址的修改,不同的机器可能不相同。通过ip a查看
nohup ./etcd --name docker-node1 --initial-advertise-peer-urls http://172.28.128.3:2380 \
--listen-peer-urls http://172.28.128.3:2380 \
--listen-client-urls http://172.28.128.3:2379,http://127.0.0.1:2379 \
--advertise-client-urls http://172.28.128.3:2379 \
--initial-cluster-token etcd-cluster \
--initial-cluster docker-node1=http://172.28.128.3:2380,docker-node2=http://172.28.128.4:2380 \
--initial-cluster-state new&
  1. docker-node2 上安装etcdsudo yum -y install wget wget https://github.com/coreos/etcd/releases/download/v3.0.12/etcd-v3.0.12-linux-amd64.tar.gz tar zxvf etcd-v3.0.12-linux-amd64.tar.gz cd etcd-v3.0.12-linux-amd64 #查看ip地址 172.28.128.4 ip a
代码语言:txt
复制
#注意ip地址的修改,不同的机器可能不相同。通过ip a查看
nohup ./etcd --name docker-node1 --initial-advertise-peer-urls http://172.28.128.4:2380 \
--listen-peer-urls http://172.28.128.4:2380 \
--listen-client-urls http://172.28.128.4:2379,http://127.0.0.1:2379 \
--advertise-client-urls http://172.28.128.4:2379 \
--initial-cluster-token etcd-cluster \
--initial-cluster docker-node1=http://172.28.128.3:2380,docker-node2=http://172.28.128.4:2380 \
--initial-cluster-state new&
  1. docker-node1 和 docker-node2 共同操作查看状态 ./etcdctl cluster-heallth sudo service docker stop
  1. docker-node1 和docker-node2 分别操作sudo /usr/bin/dockerd -H tcp://0.0.0.0:2375 -H unix:///var/run/docker.sock --cluster-store=etcd://172.28.128.3:2379 --cluster-advertise=172.28.128.3:2375& exit vagrant ssh docker-node1 sudo docker network lssudo /usr/bin/dockerd -H tcp://0.0.0.0:2375 -H unix:///var/run/docker.sock --cluster-store=etcd://172.28.128.4:2379 --cluster-advertise=172.28.128.4:2375& exit vagrant ssh docker-node2 sudo docker network ls
  2. docker-node1
  3. docker-node2
  • docker-node1sudo docker network create -d overlay demo sudo docker network ls
  • docker-node2#docker-node1创建了overlay网络后,node2也创建了。这是为什么呢?其实这就是etcd帮咱们做的。 sudo docker network ls
  • docker-node1 查看网络信息sudo docker network inspect demo
创建连接demo网络的容器
  • 创建docker-node1内部的容器tes11t1sudo docker run -d --name tes11t1--net demo busybox sh -c "while true; do sleep 3600; done" sudo docker ps
image.png
image.png
  • 创建docker-node2内部的容器tes11t1#说有相同容器已经存在了,不允许创建。如果在同一台docker机器上不允许名称一样的,说明这2个docker-node1 和docker-node2 已经在同一个网络空间内了 sudo docker run -d --name tes11t1--net demo busybox sh -c "while true; do sleep 3600; done" #更改一个名称,可以成功创建 sudo docker run -d --natme test111--net demo busybox sh -c "while true; do sleep 3600; done" sudo docker ps
  • docker-node1中的容器,查看tes11t1的ip地址sudo docker exec tes11t1 ip a
  • docker-node2中的容器,查看tes11t1的ip地址sudo docker exec test111 ip a
image.png
image.png
  • 查看下demo的networksudo docker network inspect demo
  • 试试2个容器能否互相ping通 docker-node2sudo docker exec test111 ping 10.0.0.2 sudo docker exec test111 ping tes11t1

docker-node1

代码语言:txt
复制
sudo docker exec tes11t1 ping 10.0.0.3
sudo docker exec tes11t1 ping test111

PS:本次通过第三方工具etcd分布式的方式完成2台机器,2个容器组件网络,实现相互的访问,这里只是通过ping的方式,如果按照上次说的 flask-redis,可以一台是redis 一台是flask 应该也是可以通信的。多机的方式基本就是这样。


image
image

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 这次按照上次讲解,做个多机器之前的通信 flask-redis 和redis 在不同的机器上
    • etcd的2台机器安装
      • 创建连接demo网络的容器
      相关产品与服务
      容器服务
      腾讯云容器服务(Tencent Kubernetes Engine, TKE)基于原生 kubernetes 提供以容器为核心的、高度可扩展的高性能容器管理服务,覆盖 Serverless、边缘计算、分布式云等多种业务部署场景,业内首创单个集群兼容多种计算节点的容器资源管理模式。同时产品作为云原生 Finops 领先布道者,主导开源项目Crane,全面助力客户实现资源优化、成本控制。
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档