| 作者:toryzen
| 来源:http://1t.click/T9v
本技术方案为基于 kubernetes (下文简称 K8S )为核心的持续部署(下文简称CD)方案,可以满足开发方的程序级日志查看分析,运维方的快速扩容与日常运维分析,并且可以保证用户的服务体验。并且整套放在可以在资源利用率上进一步提升,在不降低服务可靠性的前提下降低资源使用成本。
本方案适用于以 Tomcat 为容器的 JavaWeb 项目的持续部署过程,在 K8S 方案中,所有的 Node 节点均采用统一配置,根据业务环境的需求进行节点数量的控制。
K8s的安装使用kubeadm安装为高可用集群,并选用Stacked etcd topology 模式
详情参考 https://kubernetes.io/docs/setup/independent/high-availability/
容器网络解决方案。weave 创建的虚拟网络可以将部署在多个主机上的容器连接起来。对容器来说,weave 就像一个巨大的以太网交换机,所有容器都被接入这个交换机,容器可以直接通信,无需 NAT 和端口映射。
原理详解:http://dockone.io/article/262
K8s目前支持nodeport、loadbanlace、ingress三种对外提供服务的模式,其中loadbanlace需要云平台的支持,阿里云提供了解决方案,但腾讯云未找到,ingress技术为新出技术。
整体评估采用nodeport方式更为灵活,每个服务一个唯一的对外IP地址,并且使用Nginx进行负载均衡(采用Nginx主要为日志分析)。
介绍与使用方法:https://kubernetes.io/docs/concepts/services-networking/service/#nodeport
在业务上,K8S默认配置两套Namespace,分别为master存放正式环境,develop配置测试环境。
正式环境WEB端口以32001开始,测试环境以31001开始,且一一对应。
/data
└── k8s-cd-config
└── test.gyyx.cn
├── develop
│ └── v1.2.0-92-3fdd00f.yaml
├─develop.yaml -> /data/k8s-cd-config/test.gyyx.cn/develop/v1.2.0-92-3fdd00f.yaml
├── master
│ └── v1.2.0-91-746284e.yaml
└──master.yaml->/data/k8s-cd-config/test.gyyx.cn/master/v1.2.0-91-746284e.yaml
K8s-Master 下的 data 目录下为 k8s-cd-config, k8s-cd-config 目录存放各业务的yaml 配置,二级目录为域名,三级目录划分 master (正式),develop (测试),目录下以 版本号-构建 ID-GITID.yaml 命名文件,时间最后一个即为当前线上的使用配置文件,为了运维方便,在二级目录同级内,生成一个软链连接到最新的正式与测试配置文件。注意,k8s-cd-config 仅在其中一台 Master 中存在。
/data
├── filebeat
├── dockerlibs
└── nodelogs
├── develop
│ ├── accesslogs
│ │ └── test.gyyx.cn
│ │ └── test-gyyx-cn-76d9d8d5b5-hdnql
│ │ └── localhost_access_log.2018-12-24.txt
│ ├── devlogs
│ │ └── test.gyyx.cn
│ │ └── test-gyyx-cn-76d9d8d5b5-hdnql
│ │ └── interface.datareport.wyx.cn
│ │ ├── error.log
│ │ ├── info.log
│ │ └── trace.log
│ └── tomcatlogs
│ └── test.gyyx.cn
│ └── test-gyyx-cn-76d9d8d5b5-hdnql
│ ├── catalina.2018-12-24.log
│ ├── host-manager.2018-12-24.log
│ ├── localhost.2018-12-24.log
│ └── manager.2018-12-24.log
└── master
├── accesslogs
│ └── test.gyyx.cn
│ └── test-gyyx-cn-895cc5994-sx7gk
│ └── localhost_access_log.2018-12-24.txt
├── devlogs
│ └── test.gyyx.cn
│ └── test-gyyx-cn-895cc5994-sx7gk
└── tomcatlogs
└── test.gyyx.cn
└── test-gyyx-cn-895cc5994-sx7gk
├── catalina.2018-12-24.log
├── host-manager.2018-12-24.log
├── localhost.2018-12-24.log
└── manager.2018-12-24.log
节点下的/data一级目录下分 filebeat、dockerlibs、nodelogs,其中 dockerlibs 存放docker 相关数据,nodelogs 目录通过 volume 的方式挂载入 k8s的pod, nodelogs 下分 develop 与 master 目录,区分正式环境与测试环境,每个 master 与 develop 下分为 accesslogs、devlogs、tomcatlogs 分别存放访问日志,开发部日志,tomcat 日志,日志目录下为项目(域名),域名下为 POD 名称目录。
节点加入集群后,一定要下载手工下载 kubernetes-dashboard-amd64 镜像,防止dashboard 所在节点挂掉以后 dashboard 无法在其他节点启动。
Harbor 重定义其 registry 的存储路径直接使用 docker-compose 安装。template 存放基础进项,各域名分组存放业务镜像
分组下镜像以站点域名:版本号-类型-CDGITLAB为名称,并基于版本号确定不同的站点版本。
Harbor数据目录统一存放在/data下。
Harbor默认不设置备份,对于业务镜像无需进行备份,每次进行构建即可,对于模板类镜像,在Jenkins机器上均可以找到,若Harbor出现问题,则直接重建,并将Jenkins上的模板镜像进行重新push。
注意:为了业务的稳定性,Harbor由独立的服务运行(基于Docker),并不运行在K8S内。
.
├── dockerlibs
├── thinbackups
└── gitlab-files
│ └── gyyx.cn
│ └── test.gyyx.cn
└── jks-cd-config
└── test.gyyx.cn
└── v1.2.0
├── develop
│ └── 101_138a37a
│ ├── …
│ └── v1.2.0-101-138a37a.yaml
├── master
│ └── 102_4f228a7
│ ├── …
│ └── v1.2.0-102-4f228a7.yaml
└── ROOT.war
Jenkins 下的 data 目录分为 dockerlibs、thinbackups、gitlab-files 、jks-cd-config Dockerlibs 存放 docker 相关文件,thinbackups 存放每日的 Jenkins备份,gitlab-files存放构建 Gitlab 的文件(运维可以在此操作pull,push),jks-cd-config 为 jks 构建目录。
Jenkins 机使用 /data/jks-cd-config 目录存放构建内容,二级目录为域名,三级目录为版本号(以开发部版本号为准),三级目录下存放 ROOT.war,四级目录为构建 ID_GITID,目录下存放构建的原始数据。
节点每天进行 images 清理工作。
Jenkins 的分组分为 template 与各 domain,template 存放模板,domain 以域名的形式存放正式项目:
Jenkins 构建时,需要传递三参数,1:程序版本号,2:类型:apply与delete,3:正式环境还是测试环境,正式环境为master,测试环境为develop,对应k8s的namespace。
curl -X POST http://jenkinsapi.com/job/域名/build \
–user admin:11b80a61d260aa41eb4a43ef0115bcbb26 \
–data-urlencode json=’{“parameter”: [{“name”:”VERSION”, “value”:”v1.2.0”}, {“name”:”TYPE”, “value”:”apply”}, {“name”:”BRANCH”, “value”:”develop”}]}’
APIDoc:https://wiki.jenkins.io/display/JENKINS/Remote+access+API Token:https://jingyan.baidu.com/article/0eb457e5dbad8003f0a9056c.html
Jenins安装ThinBackup插件,配置每小时进行一次全局备份,且最多保留10份,备份后数据传至异地
注意:为了业务的稳定性,Jenkins由独立的服务运行,并不运行在K8S内。
CD Gitlab项目下分两个组template与各domain ,template存放模板文件。例如:
default 下以域名划分项目,每个项目划分 master 与 develop 两个分支,分别存放正式环境与测试环境CD文件
├── catalina.sh #tomcat配置文件
├── config #程序配置文件,此文件夹会替换掉容器内的/data/conf
│ └── hello.conf
├── deployment.yaml #k8s deploymen配置
├── dockerfile #docker镜像生成文件
├── hosts #docker镜像的hosts,此文件将合并到deployment.yaml
├── service.yaml #k8s service配置
└── tomcat #tomcat配置文件
├── Catalina
│ └── localhost
├── catalina.policy
├── catalina.properties
├── context.xml
├── logging.properties
├── server.xml
├── tomcat-users.xml
└── web.xml
Gitlab使用gitlab-rake gitlab:backup:create进行每日定期备份,并传送至异地
ES数据通过索引仅保留近10天的数据,每日通过脚本方式进行数据删除。ES的数据保存在/data/elasticsearch目录下
在每个Node节点启动一个Filebeat进程,用于日志的采集工作,filebeat分别监控
其中,tomcatlogs日志需要进行特殊处理,进行多行合并,数据写入ES时,使用processors. Dissect进行目录名称截取,并使用域名作为ES的索引使用。
processors:
- dissect:
tokenizer: "%{?key1}/%{?key2}/%{?key3}/%{wtype}/%{ltype}/%{domain}/%{?key7}/%{?key8}"
field: "source"
target_prefix: "gy"
截取 gy. wtype ( master或develop) , ltype(accesslogs 、tomcatlogs、devlogs),domain(xxx.gyyx.cn)
Kibana目前我们仅使用其discover节点,用于日志数据的查询,在配置方面 Kibana配置使用”域名-*”方式进行配置,每次新增域名,需要在此进行手工配置。
Kibana 使用 discover 查看时,默认展示一个域名下所有的日志,可以通过gy.wtype筛选选择查看测试环境还是正式环境,或者通过gy.ltype哪种日志类型。
容器资源使用WeaveScope进行资源消耗监控