专栏首页cwl_Java大数据-Flume采集案例Agent级联

大数据-Flume采集案例Agent级联

2.2. 采集案例

2.2.5. Agent 级联

分析

  1. 第一个agent负责收集文件当中的数据,通过网络发送到
  2. 第二个agent当中去 第二个agent负责接收第一个agent发送的数据,并将数据保存到hdfs上面去

Step 1: Node02 安装 Flume

将node03机器上面解压后的flume文件夹拷贝到node02机器上面去

cd /export/servers 
scp -r apache-flume-1.8.0-bin/ node02:$PWD

Step 2: Node02 配置 Flume

在node02机器配置我们的flume

cd /export/servers/ apache-flume-1.8.0-bin/conf 
vim tail-avro-avro-logger.conf
################## 
# Name the components on this agent 
a1.sources = r1 
a1.sinks = k1 a1.channels = c1 
# Describe/configure the source 
a1.sources.r1.type = exec 
a1.sources.r1.command = tail -F /export/servers/taillogs/access_log 
a1.sources.r1.channels = c1 
# Describe the sink 
##sink端的avro是一个数据发送者 
a1.sinks = k1 a1.sinks.k1.type = avro 
a1.sinks.k1.channel = c1 
a1.sinks.k1.hostname = 192.168.174.120 
a1.sinks.k1.port = 4141 
a1.sinks.k1.batch-size = 10 
# Use a channel which buffers events in memory 
a1.channels.c1.type = memory 
a1.channels.c1.capacity = 1000 
a1.channels.c1.transactionCapacity = 100 
# Bind the source and sink to the channel 
a1.sources.r1.channels = c1 
a1.sinks.k1.channel = c1

Step 3: 开发脚本向文件中写入数据

直接将node03下面的脚本和数据拷贝到node02即可,node03机器上执行以下命令

cd /export/servers 
scp -r shells/ taillogs/ node02:$PWD

Step 4: Node03 Flume 配置文件

在node03机器上开发flume的配置文件

cd /export/servers/apache-flume-1.8.0-bin/conf 
vim avro-hdfs.conf
# Name the components on this agent 
a1.sources = r1 
a1.sinks = k1 
a1.channels = c1 
# Describe/configure the source 
##source中的avro组件是一个接收者服务 
a1.sources.r1.type = avro 
a1.sources.r1.channels = c1 
a1.sources.r1.bind = 192.168.174.120 
a1.sources.r1.port = 4141 
# Describe the sink 
a1.sinks.k1.type = hdfs 
a1.sinks.k1.hdfs.path = hdfs://node01:8020/av /%y-%m-%d/%H%M/ 
a1.sinks.k1.hdfs.filePrefix = events- 
a1.sinks.k1.hdfs.round = true 
a1.sinks.k1.hdfs.roundValue = 10 
a1.sinks.k1.hdfs.roundUnit = minute 
a1.sinks.k1.hdfs.rollInterval = 3 
a1.sinks.k1.hdfs.rollSize = 20 
a1.sinks.k1.hdfs.rollCount = 5 
a1.sinks.k1.hdfs.batchSize = 1 
a1.sinks.k1.hdfs.useLocalTimeStamp = true #生成的文件类型,默认是Sequencefile,可用DataStream,则为普通文本 
a1.sinks.k1.hdfs.fileType = DataStream 
# Use a channel which buffers events in memory 
a1.channels.c1.type = memory 
a1.channels.c1.capacity = 1000 
a1.channels.c1.transactionCapacity = 100 
# Bind the source and sink to the channel 
a1.sources.r1.channels = c1 
a1.sinks.k1.channel = c1

Step 5: 顺序启动

node03机器启动flume进程

cd /export/servers/apache-flume-1.8.0-bin bin/flume-ng agent -c conf -f conf/avro-hdfs.conf -n a1

node02机器启动flume进程

cd /export/servers/apache-flume-1.8.0-bin/ bin/flume-ng agent -c conf -f conf/tail-avro-avro-logger.conf -n a1

node02机器启shell脚本生成文件

cd /export/servers/shells 
sh tail-file.sh

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 大数据-Flume采集目录到 HDFS

    需求 某服务器的某特定目录下,会不断产生新的文件,每当有新文件出现,就需要把文件采集到HDFS中去

    cwl_java
  • 大数据- Flume经典案例

    A、B两台日志服务机器实时生产日志主要类型为access.log、nginx.log、web.log 现在要求:

    cwl_java
  • 快速学习-SpringBoot原理分析

    按住Ctrl点击pom.xml中的spring-boot-starter-parent,跳转到了spring-boot-starter-parent的pom.x...

    cwl_java
  • 大数据-Flume采集目录到 HDFS

    需求 某服务器的某特定目录下,会不断产生新的文件,每当有新文件出现,就需要把文件采集到HDFS中去

    cwl_java
  • 浅析社会工程学情报搜集:互联网=军火库

    世界第一黑客凯文·米特尼克在《欺骗的艺术》中曾提到,人为因素才是安全的软肋。很多企业、公司在信息安全上投入大量的资金,最终导致数据泄露的原因,往往却是发生在人本...

    周俊辉
  • 如何社工掉一个域名的空间

    一般来说直接whois就可以查到域名的注册商 如果域名商难搞定的话,大家可以试试下面的思路

    周俊辉
  • Facebook再曝300万用户数据泄露 与性格测试类app密切相关

    据 New Scientist 周一报道:剑桥大学的研究人员们,已经向一个分享门户上传了 300 万 Facebook 用户的数据。尽管数据被用户名和密码锁定,...

    周俊辉
  • 前序遍历和中序遍历树构造二叉树

    一份执着✘
  • 重磅精品翻译:QEMU-KVM虚机动态迁移原理

    翻译过程也是一个近距离和技术对话的过程,从字里行间理解、揣摩技术的精髓,在翻译成中文的时候斟酌,是一个反复理解的过程,最终的收获是知识。

    力哥聊运维与云计算
  • F-Stack KNI 配置注意事项

    KNI(Kernel NIC Interface)内核网卡接口,是DPDK中用于与内核通信的模块。本文介绍对其进行配置时的一些注意事项。

    F-Stack

扫码关注云+社区

领取腾讯云代金券