前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >007.基于Docker的Etcd分布式部署

007.基于Docker的Etcd分布式部署

作者头像
木二
发布2019-07-26 14:21:18
4580
发布2019-07-26 14:21:18
举报
文章被收录于专栏:木二天空木二天空

一 环境准备

1.1 基础环境

ntp配置:略 #建议配置ntp服务,保证时间一致性

etcd版本:v3.3.9

防火墙及SELinux:关闭防火墙和SELinux

名称

地址

主机名

备注

etcd1

172.24.8.71

etcd1.example.com

用于保存相关IP信息

docker01

172.24.8.72

docker01.example.com

docker02

172.24.8.73

docker02.example.com

代码语言:javascript
复制
  1 # hostnamectl set-hostname etcd1.example.com
  2 # hostnamectl set-hostname docker01.example.com
  3 # hostnamectl set-hostname docker02.example.com

提示:主机名非必须。

1.2 docker环境

以上所有节点均安装docker,具体方式见《002.docker版本及安装》。

二 etcd节点部署

提示:本环境全部采用docker化,即etcd服务也以docker形式存在。

2.1 etcd基础配置

代码语言:javascript
复制
  1 # mkdir -p /var/log/etcd/			#建议创建etcd日志保存目录
  2 # mkdir -p /data/etcd				#建议创建单独的etcd数据目录
  3 # export HOST_1=172.24.8.71			#设置etcd节点的IP
  4 # export DATA_DIR=/data/etcd			#设置集群etcd数据节点
  5 # REGISTRY=quay.io/coreos/etcd			#建议使用此仓库
  6 # ETCD_VERSION=latest				#设置etcd版本
  7 # export NAME_1=etcd1				#设置etcd节点的name
  8 # docker volume create --name etcd-data

提示:以上所有操作需要在所有节点操作。

2.3 启动docker etcd集群

代码语言:javascript
复制
  1 [root@etcd1 ~]# docker run \
  2   -p 2379:2379 \
  3   -p 2380:2380 \
  4   --volume=${DATA_DIR}:/etcd-data \
  5   --name etcd ${REGISTRY}:${ETCD_VERSION} \
  6   /usr/local/bin/etcd \
  7   --data-dir=/etcd-data --name ${NAME_1} \
  8   --initial-advertise-peer-urls http://${HOST_1}:2380 --listen-peer-urls http://0.0.0.0:2380 \
  9   --advertise-client-urls http://${HOST_1}:2379 --listen-client-urls http://0.0.0.0:2379 \
 10   --initial-cluster ${NAME_1}=http://${HOST_1}:2380

提示:quay.io/coreos/etcd镜像国内可能无法pull,可在国外节点pull,然后scp至集群节点。

2.4 确认验证

代码语言:javascript
复制
  1 [root@etcd1 ~]# docker ps
68_thumb1
68_thumb1
代码语言:javascript
复制
  1 [root@etcd1 ~]# docker exec -it bcb96fb0f987 /usr/local/bin/etcdctl cluster-health
69_thumb1
69_thumb1
代码语言:javascript
复制
  1 [root@etcd1 ~]# docker exec -it bcb96fb0f987 /usr/local/bin/etcdctl --endpoints=http://${HOST_1}:2379 member list
70_thumb1
70_thumb1

三 docker宿主机节点配置

3.1 docker01配置

代码语言:javascript
复制
  1 [root@docker01 ~]# vi /etc/sysconfig/docker
  2 OPTIONS='--cluster-store=etcd://172.24.8.71:2379 --cluster-advertise=172.24.8.72:2379'
  3 [root@docker01 ~]# systemctl restart docker

3.2 docker02配置

代码语言:javascript
复制
  1 [root@docker02 ~]# vi /etc/sysconfig/docker
  2 OPTIONS='--cluster-store=etcd://172.24.8.71:2379 --cluster-advertise=172.24.8.73:2379'
  3 [root@docker02 ~]# systemctl restart docker

3.3 创建overlay网络

代码语言:javascript
复制
  1 [root@docker01 ~]# docker network create -d overlay overlaynet1
  2 418654e0092f5d1c3e4bf2b9ee73cdd22932dd60fecf12d7a3b024818118244b
  3 [root@docker01 ~]# docker network inspect overlaynet1
71_thumb1
71_thumb1
代码语言:javascript
复制
  1 [root@docker02 ~]# docker network inspect overlaynet1
72_thumb1
72_thumb1

提示:分别在docker01和docker02宿主机查看在docker01上创建的overlay网络,若都存在则表示通过 etcd,网络数据是分布式而不是本地的了。

3.4 测试网络

代码语言:javascript
复制
  1 [root@docker01 ~]# docker run -d --name Container01 --network overlaynet1 training/webapp python app.py
  2 [root@docker02 ~]# docker run -d --name Container02 --network overlaynet1 training/webapp python app.py
  3 [root@docker01 ~]# docker exec -it 73e984a5528a /bin/bash
  4 root@73e984a5528a:/opt/webapp# ifconfig
73_thumb1
73_thumb1
代码语言:javascript
复制
  1 root@73e984a5528a:/opt/webapp# route -n
74_thumb1
74_thumb1
代码语言:javascript
复制
  1 [root@docker02 ~]# docker exec -it 89eac9521743 /bin/bash
  2 root@89eac9521743:/opt/webapp# ifconfig
75_thumb1
75_thumb1

说明:

  • 所有容器对会存在两个网卡,eth0和eth1;
  • 其中 eth1 的网络是一个内部的网段,即普通的 NAT 模式;
  • 其中 eth0 是 overlay 网段上分配的IP地址,即 overlay 网络,且 MTU 是 1450 而不是 1500;
  • 只有同一个 overlay 网络中的容器之间的通信才会通过 eth0,其它所有通信还是经过 eth1。
代码语言:javascript
复制
  1 [root@docker01 ~]# brctl show
76_thumb1
76_thumb1
代码语言:javascript
复制
  1 [root@docker01 ~]# docker network ls
77_thumb1
77_thumb1

其他引用:

  • Docker 在每个节点上创建了两个 linux bridge,一个用于 overlay 网络,一个用于非 overlay 的 NAT 网络(docker_gwbridge);
  • 容器内的到overlay 网络的其它容器的网络流量走容器的 overlay 网卡(eth0),其它网络流量走容器的 NAT 网卡(eth1);
  • 当前 Docker 创建 vxlan 隧道的ID范围为 256~1000,因而最多可以创建745个网络,因此,本例中的这个 vxlan 隧道使用的 ID 是 256;
  • Docker vxlan 驱动使用 4789 UDP 端口;
  • overlay网络模型底层需要类似 consul 或 etcd 的 KV 存储系统进行消息同步;
  • Docker overlay 不使用多播;
  • Overlay 网络中的容器处于一个虚拟的大二层网络中,

参考链接:https://www.cnblogs.com/allcloud/p/7150564.html

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018-12-25 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一 环境准备
    • 1.1 基础环境
      • 1.2 docker环境
      • 二 etcd节点部署
        • 2.1 etcd基础配置
          • 2.3 启动docker etcd集群
            • 2.4 确认验证
            • 三 docker宿主机节点配置
              • 3.1 docker01配置
                • 3.2 docker02配置
                  • 3.3 创建overlay网络
                    • 3.4 测试网络
                    相关产品与服务
                    容器服务
                    腾讯云容器服务(Tencent Kubernetes Engine, TKE)基于原生 kubernetes 提供以容器为核心的、高度可扩展的高性能容器管理服务,覆盖 Serverless、边缘计算、分布式云等多种业务部署场景,业内首创单个集群兼容多种计算节点的容器资源管理模式。同时产品作为云原生 Finops 领先布道者,主导开源项目Crane,全面助力客户实现资源优化、成本控制。
                    领券
                    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档