基于Logstash 5.4.0版本
主要针对收集本地文件日志后写入kafka这个场景
还在进一步使用中, 遇到的新的问题会持续补充
----
无法写入kafka集群
现象: 可以从本地要收集的文件中读取文件内容...版本中的kafka client jar作替换,主要涉及到下面的两个jar包, 替换后名字还要保持 kafka-clients-0.10.0.1.jar
/vendor/bundle/jruby/1.9...-0.10.0.1.jar
同时收集多个文件时,有些文件收集很慢或无法收集
现象: file input的path匹配到了多个待收集的文件, 但有些文件收集很慢或无法收集
原因: 简单讲file input...thread, 却没有机会被stop了;
解决方案: 引入一个变量, 确何在stop后, 即使再次调用start, 也不会再开启一个新的线程....中我们也是用了对应的sdk版本, 手动merge了官方的修复,替换kafka sdk jar, 测试目前没有问题
----
Logstash源码分析-框架概述