文档中心 弹性 MapReduce EMR 开发指南 Flume 开发指南 Kafka 数据通过 Flume 存储到 Hbase

Kafka 数据通过 Flume 存储到 Hbase

最近更新时间:2019-11-28 16:59:01

场景说明

将 Kafka 中的数据通过 Flume 收集并存储到 Hbase。

开发准备

  • 因为任务中需要访问腾讯云消息队列 CKafka,所以需要先创建一个 CKafka 实例,具体见 消息队列 CKafka
  • 确认您已开通腾讯云,且已创建一个 EMR 集群。创建 EMR 集群时需要在软件配置界面选择 Spark 组件。

在 EMR 集群使用 Kafka 工具包

首先需要查看 CKafka 的内网 IP 与端口号。登录消息队列 CKafka 的控制台,选择您要使用的 CKafka 实例,在基本消息中查看其内网 IP 为 $kafkaIP,而端口号一般默认为9092。在 topic 管理界面新建一个 topic 为 kafka_test。

配置 flume

  1. 创建 flume 的配置文件hbase_kafka.properties
    vim hbase_kafka.properties
    agent.sources = kafka_source
    agent.channels = mem_channel
    agent.sinks = hbase_sink
    # 以下配置 source
    agent.sources.kafka_source.type = org.apache.flume.source.kafka.KafkaSource
    agent.sources.kafka_source.channels = mem_channel
    agent.sources.kafka_source.batchSize = 5000
    agent.sources.kafka_source.kafka.bootstrap.servers = $kafkaIP:9092
    agent.sources.kafka_source.kafka.topics = kafka_test
    # 以下配置 sink
    agent.sinks.hbase_sink.channel = mem_channel
    agent.sinks.hbase_sink.table = foo_table
    agent.sinks.hbase_sink.columnFamily = cf
    agent.sinks.hbase_sink.serializer = org.apache.flume.sink.hbase.RegexHbaseEventSerializer
    # 以下配置 channel
    agent.channels.mem_channel.type = memory
    agent.channels.mem_channel.capacity = 100000
    agent.channels.mem_channel.transactionCapacity = 10000
  2. 创建 hbase 表
    hbase shell
    create 'foo_table','cf'
  3. 运行 flume
    ./bin/flume-ng agent --conf ./conf/ -f hbase_kafka.properties -n agent -Dflume.root.logger=INFO,console
  4. 运行 kafka producer
    [hadoop@172 kafka]$ ./bin/kafka-console-producer.sh --broker-list $kafkaIP:9092 --topic kafka_test
    hello
    hbase_test

测试

  • 在 kafka 生产者客户端输入信息并回车。
  • 观察 hbase 表中是否有相应数据。

参考文档

hbase-sink 配置说明