首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Kafka应用之Kafka与Spark Streaming整合

Spark Streaming与Kafka整合主要是用来处理流计算,根据设置的时间窗口大小,每隔一段时间批量处理一次。本篇我们将介绍Spark Streaming与Kafka的整合。

一,环境准备:

1. pom.xml

2. 配置kafka.properties:

b

3. 常量KafkaConfigConsts:

4. 读取配置的工具类KafkaPropertiesUtils:

5. 主类SparkKafkaApp:

二, 测试

我们给主题beardata发送消息: hello,beardata

在控制台我们接收到了来自beardata的消息

以上就是Kafka与Spark Streaming的整合,下一篇我们将介绍Kafka技术内幕之日志存储。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181102G1ND3A00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券