Flink、Spark、java 日志如何进行采集
如何在保证耦合度尽量低的情况下,同时保证不影响任务
部署方便, 用户端尽量少操作
调研
通过调研相关资料,选择基于Log4自定义Appender...Appender:负责日志的输出,Log4j已经实现了多种不同目标的输出方式,可以向文件输出日志、向控制台输出日志、向Socket输出日志等。
Layout:负责日志信息的格式化。...这里可以根据实际情况设置相应的策略,比如一分钟写入非常多的消息有可能用户乱打日志,我们就停止发送,避免将磁盘写满,影响其它用户使用
接收中心主要是负责接收到消息然后将其写入到kafka中....Flink 消费kafka的日志,进行简单的清洗转换后将数据sink到es中
用户通过界面根据各种条件如applicationId、时间、不同角色节点筛选,搜索到对应日志
总结
本文主要介绍了下基于...log4j 自定义appender,实现了大数据平台相关任务日志的采集,针对不同类型任务的处理,获取最终我们平台搜索需要的功能.