日志数据的监控和采集一般会选用Logstash和Filebeat, 其中Filebeat占用的系统资源更少而成为首选.
一....请求收集
通过Filebeat收集指定日志信息, 并通过kafka发送到流量银行服务中, 进行日志分析和存储; 流量银行服务可以根据平台规划存储到mongoDB,ES等存储引擎中.
二....在我们的配置中, 输入项是指定目录下的日志文件, 输出项为Kafka.
filebeat.inputs:
- type: log
paths:
- "/Users/xxx/logs/*.log....
(5)输出项中, 如果在你的日志文件中, 并不只含有你想收集的数据, 或者想根据日志内容分发到不同的kafka topic中, 可以使用[when]条件自定义配置;
点击阅读原文查看更多配置项;
三...测试
启动filebeat, 监听日志文件.
filebeat -e -c filebeat.yml
进入到kafka容器中, 监听topic(filebeat-log)消费内容.