我正在尝试将我的节点应用程序日志发送到fluentd到elasticsearch到kibana,但在将logs与elasticsearch连接到docker时遇到了问题。我想把这堆东西装进码头。我已经附上了文件夹结构和共享相关的文件。以下是文件夹结构:
误差
Could not communicate to Elasticsearch, resetting connection and trying again. Connection refused - connect(2) for 172.20.0.2:9200 (Errno::ECONNREFUSED)
fluent.conf:
您是否知道任何不允许在多个k8集群中使用单个ES/kibana作为fluentd目标的陷阱或要求?
我们正在设计一个新的kubernetes模型。我需要运行多个kubernetes集群,比方说4-6。即使工作负载被拆分到多个k8集群中,我也不需要拆分日志记录,并且相信在一个集中的位置找到所有集群中的pods的日志会更容易。对kibana/elasticsearch的维护也更少。
使用EFK for Kubernetes,我可以将来自多个k8集群的Fluentd指向单个ElasticSearch/Kibana吗?我不认为我是第一个有这种想法的人,但是我还没有找到任何关于这样做的讨论。我发现了很多
请原谅,因为我是新手ES和Kibana用户。我有kibana,它连接到为我的自定义数据创建的ElasticSearch实例和索引。如果我转到discover选项卡,我可以看到预期的数据。如果我点击refresh,我可以看到自从实时数据被发送到ElasticSearch后,点击的数量就像预期的那样不断增加。
当日志进入ElasticSearch时,我很困惑如何使用Kibana中的Logs功能查看实时日志。我将日志设置为指向我的索引fluentd*,但在控制台中看不到任何日志。可用的索引如下
green open .kibana_task_manager_1 Lx2yZknzRseSZyK