理解OpenShift(1):网络之 Router 和 Route
理解OpenShift(2):网络之 DNS(域名服务)
理解OpenShift(3):网络之 SDN
理解OpenShift(4):用户及权限管理
理解OpenShift(5):从 Docker Volume 到 OpenShift Persistent Volume
理解OpenShift(6):集中式日志处理
(1)由应用自己处理日志,而不需要容器引擎参与
比如一个使用Log4j2 日志组件的Java应用, 它通过日志组件将日志发往一个远端日志服务器。此时,不利用容器引擎的日志功能。
(2)使用数据卷(Data volume)
使用数据卷,容器内应用将日志写入数据卷中。此时,也不利用容器引擎的日志功能。
(3)使用 Docker 日志驱动(logging driver)
Docker 日志驱动会读取容器中主进程的 stdout(标准输出) 和 stderr(错误输出),然后将内容写入容器所在的宿主机上的文件中。
Docker 以插件形式支持多种日志驱动:
(图片来源:https://jaxenter.com/docker-logging-gotchas-137049.html)
几个比较常见的:
更多日志驱动,可以查看 https://docs.docker.com/config/containers/logging/configure/#supported-logging-drivers。
Docker 还支持插件形式的更多日志驱动,具体请看 https://docs.docker.com/config/containers/logging/plugins/。
(4)使用专门的日志容器
Docker 日志驱动这种实现方式有一些限制:
对于这些不支持的场景,比如应用有将日志写到日志文件,此时可以利用在同一个Pod中的专门日志容器。它会以边车(sidecar)形式读取应用容器中的日志产生,然后做处理和转发,比如转发到 stdout 和 stderr。
另外,某些这种场景还有另外一种更简单的处理方式。以 Nginix 为例,它默认写入日志文件,然后通过下面的方式,将日志也输出到 stdout 和 stderr。这种方式有一些限制,具体可参考 https://github.com/moby/moby/issues/19616:
# forward request and error logs to docker log collector
RUN ln -sf /dev/stdout /var/log/nginx/access.log \ && ln -sf /dev/stderr /var/log/nginx/error.log
OpenShift/Kubernetes 环境的日志处理可分为三个发展阶段,或三种处理类型:
类型 | 说明 | 使用方式 |
---|---|---|
容器本地日志(container local logging) | 写到容器内部的标准输出(standard output)和标准错误流(stand error),或者容器内日志文件。这种日志的问题是当容器死掉后,日志也会丢失,也就无法再访问了。 | 需登录进容器查看日志文件,或使用容器命令获取日志。OpenShift 提供 oc rsh 命令以进入容器,oc logs 命令以获取日志。 |
节点本地日志(node-level logging) | 容器引擎将容器中所有的标准输出和标准错误输出都转发到容器所在的本地节点上。Docker 可利用其日志驱动(logging driver)。为了避免容器中的日志将节点撑爆,可以做 log rotation。这种方式比 local logging 方式要好,但是还不是非常好,因为日志会保存在本地节点上。 | 需登录宿主机,查看本地日志文件 |
集群集中日志(cluster-level-loggin) | 这需要另外的后端来存储、分析和查询日志。后端可以在集群内,也可在集群外。一个 node-level 日志处理插件(比如 Fluentd)会运行在每个节点上,将节点上的日志发到集中的日志处理后端。还有一个可视化组件,让用户可以可视化地查看日志。 | 可通过浏览器或其它可视化界面在线查看日志 |
EFK(ElasticSearch - Fluentd - Kibana)是一种能够实现集群集中日志处理的开源套件。其中,
三个组件中,Fluentd 会直接和Docker/K8S/OKD打交道,而 ES 和 Kibana 则相对独立,不和容器集群有直接关系,除了用户校验以外。Fluentd 致力于解决多种日志来源和多种日志存储之间的复杂问题。它作为日志和日志存储之间的中间件,负责日志的收集、过滤和转发工作。
Fluentd 采用插件形式的架构,支持为了满足各种需求的日志采集、过滤、缓存和输出等功能。其v0.12 版本架构如下:
其中:
在 K8S/OKD 环境中,Fulentd 以 DeamonSet 形式运行在每个节点上。它会以 Volume 形式将所在宿主机上的多个保存日志的目录或文件挂载进容器,以被容器中的Fluentd进程所读取:
Fluentd 的配置文件被创建了一个 OpenShfit ConfigMap 对象(名为logging-fluentd),然后该对象被以 Volume 形式挂载为Fluentd容器目录 /etc/fluent/configs.d/user。其中的配置文件 fluentd.conf 指定了Fluentd 所使用的 input、filter 和 output 插件及其配置:
其中
ES 环境的信息以环境变量的形式保存在 Fluentd pod 上:
被影响人员 | 影响(好的方面)/价值 | 影响(不好的方面)/要求 |
---|---|---|
容器云平台运维人员 | 对平台所有有价值的日志能做到统一收集、统一存储和查询统一了日志处理的技术栈为将来进一步数据处理做准备 | 会引入一套新的技术栈和工具,需要有学习成本 |
容器应用开发人员 | 可以在统一的浏览器界面(Kibana)上查询所有容器的应用 | 要求将容器中应用的日志都输出到标准输出和标准错误输出需要改变传统的登录到环境中查看日志的习惯,改为在Kibana界面上查看日志需要有Kibana 界面使用的一些技能和知识 |
容器云平台研发团队 | 集中式日志是容器云平台不可或缺的一个重要组件 | 需要考虑具体的实现架构和部署架构,做到稳定、可靠、弹性需要考虑在浏览器中查看日志这种新方式对应用开发人员的影响,需要注意用户体验,让用户接受这种新方式 |
容器应用开发人员
容器云平台研发团队
备注:本部分内容引用自 http://blog.51cto.com/13527416/2051506。
这种架构只适合于开发测试环境,以及小型生产环境。
这种架构适合于较大型但是日志产生量不大及频率不高的环境。
在日志产生量大频率高的情况下,需要引入消息队列,以减轻对后端日志存储的压力,减少日志丢失概率。
采用单元化部署的方式来解决 ELK 多机房中遇到的问题(延时、专线流量过大等),从日志的产生、收集、传输、存储、展示都是在同机房里面闭环消化,不存在跨机房传输与调用的问题。因为交互紧密的应用尽量部署在同机房,所以这种方案并不会给业务查询造成困扰。
Logstash、Elasticsearch、Kafka、Kibana 四个集群都部署到同一机房中,每个机房都要每个机房自己的日志服务集群,比如A机房业务的日志只能传输给本机房 Kafka ,而A机房 Indexer 集群消费并写入到A机房 Elasticsearch 集群中,并由A机房 Kibana 集群展示,中间任何一个步骤不依赖B机房任何服务。
该架构比较简单直接,但问题是用户需要在多个 Kibana 上查看部署在各个数据中心的应用产生的日志。
目前没有特别成熟的方案,估计大部分的架构还是前面的架构,这种跨机房架构更多地在大型互联网公司有落地。通常有几种方案供参考:
方案一,双写。技术可行。
在数据写入ES时,通过MQ或者其他方式实现数据双写或者多写,目前很多MQ都有数据持久化功能,可以保障数据不丢;再结合ES各种状态码来处理数据重复问题,即可实现多中心数据的最终一致。
方案二,第三方数据同步。基本上不可行。
例如使用mysql的主从同步功能,在不同数据中心之间,从本机房的mysql同步数据到ES,依托mysql数据一致性来保障ES数据一致。datax,StreamSet均提供了类似功能。
方案三,基于ES translog同步。基本上不可行。
读取translog,同步并重放,类似于mysql binlog方式。看起来这种方式最干净利落,但涉及到ES底层代码修改,成本也较高,目前已有的实践。
方案4,ES 正在实现新的 CCR(当前为beta版本)。期待将来可行。
cross cluster replication, 基于底层 sequence id 机制,实现的 Changes API,一个集群可被另外一个集群或是本集群“订阅”,从而可以实现数据复制,进行同步,可以是跨数据中心集群也可以本地集群的数据同步。
方案5,ElasticSearch Tribe 方案。这种方案在 ES 前面放置一个集中式中间件,用于 Kibana 访问。好像也不是特别靠谱。
参考连接: