前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >大数据-Flume采集案例Agent级联

大数据-Flume采集案例Agent级联

作者头像
cwl_java
发布2019-12-26 16:07:58
6620
发布2019-12-26 16:07:58
举报
文章被收录于专栏:cwl_Javacwl_Java

2.2. 采集案例

2.2.5. Agent 级联

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

分析

  1. 第一个agent负责收集文件当中的数据,通过网络发送到
  2. 第二个agent当中去 第二个agent负责接收第一个agent发送的数据,并将数据保存到hdfs上面去

Step 1: Node02 安装 Flume

将node03机器上面解压后的flume文件夹拷贝到node02机器上面去

代码语言:javascript
复制
cd /export/servers 
scp -r apache-flume-1.8.0-bin/ node02:$PWD

Step 2: Node02 配置 Flume

在node02机器配置我们的flume

代码语言:javascript
复制
cd /export/servers/ apache-flume-1.8.0-bin/conf 
vim tail-avro-avro-logger.conf
代码语言:javascript
复制
################## 
# Name the components on this agent 
a1.sources = r1 
a1.sinks = k1 a1.channels = c1 
# Describe/configure the source 
a1.sources.r1.type = exec 
a1.sources.r1.command = tail -F /export/servers/taillogs/access_log 
a1.sources.r1.channels = c1 
# Describe the sink 
##sink端的avro是一个数据发送者 
a1.sinks = k1 a1.sinks.k1.type = avro 
a1.sinks.k1.channel = c1 
a1.sinks.k1.hostname = 192.168.174.120 
a1.sinks.k1.port = 4141 
a1.sinks.k1.batch-size = 10 
# Use a channel which buffers events in memory 
a1.channels.c1.type = memory 
a1.channels.c1.capacity = 1000 
a1.channels.c1.transactionCapacity = 100 
# Bind the source and sink to the channel 
a1.sources.r1.channels = c1 
a1.sinks.k1.channel = c1

Step 3: 开发脚本向文件中写入数据

直接将node03下面的脚本和数据拷贝到node02即可,node03机器上执行以下命令

代码语言:javascript
复制
cd /export/servers 
scp -r shells/ taillogs/ node02:$PWD

Step 4: Node03 Flume 配置文件

在node03机器上开发flume的配置文件

代码语言:javascript
复制
cd /export/servers/apache-flume-1.8.0-bin/conf 
vim avro-hdfs.conf
代码语言:javascript
复制
# Name the components on this agent 
a1.sources = r1 
a1.sinks = k1 
a1.channels = c1 
# Describe/configure the source 
##source中的avro组件是一个接收者服务 
a1.sources.r1.type = avro 
a1.sources.r1.channels = c1 
a1.sources.r1.bind = 192.168.174.120 
a1.sources.r1.port = 4141 
# Describe the sink 
a1.sinks.k1.type = hdfs 
a1.sinks.k1.hdfs.path = hdfs://node01:8020/av /%y-%m-%d/%H%M/ 
a1.sinks.k1.hdfs.filePrefix = events- 
a1.sinks.k1.hdfs.round = true 
a1.sinks.k1.hdfs.roundValue = 10 
a1.sinks.k1.hdfs.roundUnit = minute 
a1.sinks.k1.hdfs.rollInterval = 3 
a1.sinks.k1.hdfs.rollSize = 20 
a1.sinks.k1.hdfs.rollCount = 5 
a1.sinks.k1.hdfs.batchSize = 1 
a1.sinks.k1.hdfs.useLocalTimeStamp = true #生成的文件类型,默认是Sequencefile,可用DataStream,则为普通文本 
a1.sinks.k1.hdfs.fileType = DataStream 
# Use a channel which buffers events in memory 
a1.channels.c1.type = memory 
a1.channels.c1.capacity = 1000 
a1.channels.c1.transactionCapacity = 100 
# Bind the source and sink to the channel 
a1.sources.r1.channels = c1 
a1.sinks.k1.channel = c1

Step 5: 顺序启动

node03机器启动flume进程

代码语言:javascript
复制
cd /export/servers/apache-flume-1.8.0-bin bin/flume-ng agent -c conf -f conf/avro-hdfs.conf -n a1

node02机器启动flume进程

代码语言:javascript
复制
cd /export/servers/apache-flume-1.8.0-bin/ bin/flume-ng agent -c conf -f conf/tail-avro-avro-logger.conf -n a1

node02机器启shell脚本生成文件

代码语言:javascript
复制
cd /export/servers/shells 
sh tail-file.sh
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 2.2. 采集案例
    • 2.2.5. Agent 级联
      • Step 1: Node02 安装 Flume
      • Step 2: Node02 配置 Flume
      • Step 3: 开发脚本向文件中写入数据
      • Step 4: Node03 Flume 配置文件
      • Step 5: 顺序启动
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档