在一个完整的离线大数据处理系统中,除了 hdfs+mapreduce+hive 组成分析系统的核心之外,还需要 数据采集、结果 数据导出、 任务调度等不可或缺的辅助系统,而这些辅助工具在hadoop生态体系中都有便捷的开源框架,如图所示:
Flume是一个分布式、可靠和高可用的海量日志采集、聚合和传输的系统。 Flume可以采集文件,socket数据包、文件、文件夹、Kafka等各种形式源数据,又可以将采集到的数据(下沉 sink) 输出到 HDFS、Hive、Kafka等众多外部存储系统中。 一般的采集需求,通过Flume的简单配置即可实现。 Flume针对特殊场景也具有良好的自定义扩展能力。
因此,Flume可以适用于大部分的日常数据采集场景。
Source 到 Channel 到 Sink之间传递数据的形式是Event事件;Event事件是一个数据流单元。
apache-flume-1.8.0-bin.tar.gz
cd /export/servers/
tar -zxvf /export/softwares/apache-flume-1.8.0-bin.tar.gz
cd /export/servers/
cd apache-flume-1.8.0-bin/conf/
cp flume-env.sh.template flume-env.sh
vim flume-env.sh
添加以下内容:
export JAVA_HOME=/export/servers/jdk1.8.0_144