我有一个kuberenetes集群,我正在尝试从集群中的容器中收集日志。我正在使用Filebeat收集日志,并将其发送到elasctic搜索,然后在Kibana显示。我正在使用DaemonSet来部署FileBeat。下面是我所引用的YAML文件,用于部署File节拍。我从这里开始使用清单文件来部署它,并对它做了一些修改。namespace: k
我正在使用filerob7.x收集日志数据,但我面临的问题是日志大小太大(每天100 so )。
现在,我正在考虑如何从源文件中收集错误级别日志。做这件事最好的方法是什么?我正在使用file节拍发送日志到elasticsearch,它在Kubernetes集群中,我在这里关注的是,我应该使用kafka和logstash来定义规则吗?请在文件节拍配