前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >春城无处不飞花,小白带你侃SparkStreaming(原理引入篇)

春城无处不飞花,小白带你侃SparkStreaming(原理引入篇)

作者头像
大数据梦想家
发布2021-01-27 16:03:26
5000
发布2021-01-27 16:03:26
举报
文章被收录于专栏:大数据成长之路

写在前面: 博主是一名软件工程系大数据应用开发专业大二的学生,昵称来源于《爱丽丝梦游仙境》中的Alice和自己的昵称。作为一名互联网小白,写博客一方面是为了记录自己的学习历程,一方面是希望能够帮助到很多和自己一样处于起步阶段的萌新。由于水平有限,博客中难免会有一些错误,有纰漏之处恳请各位大佬不吝赐教!个人小站:http://alices.ibilibili.xyz/ , 博客主页:https://alice.blog.csdn.net/ 尽管当前水平可能不及各位大佬,但我还是希望自己能够做得更好,因为一天的生活就是一生的缩影。我希望在最美的年华,做最好的自己!

介绍完了SparkSQL,接下来让我们推开SparkStreaming的大门,接收新知识的洗礼。跟刚入坑SparkSQL时一样,让我们来回顾一下Spark的内置模块。

在这里插入图片描述
在这里插入图片描述

相信勤奋好学的大家肯定都还记得的对吧,那么接下来我们就要正式开始学习SparkStreaming咯~

码字不易,先赞后看,养成习惯!

在这里插入图片描述
在这里插入图片描述

第一章 Spark Streaming引入

1.1 新的场景需求

  • 集群监控

一般的大型集群和平台, 都需要对其进行监控的需求。要针对各种数据库, 包括 MySQL, HBase 等进行监控;要针对应用进行监控, 例如 Tomcat, Nginx, Node.js 等;要针对硬件的一些指标进行监控, 例如 CPU, 内存, 磁盘 等。

在这里插入图片描述
在这里插入图片描述
  • 双11实时交易数据大屏
在这里插入图片描述
在这里插入图片描述
  • 智慧公厕
在这里插入图片描述
在这里插入图片描述

1.2 Spark Streaming介绍

Spark Streaming是一个基于Spark Core之上的实时计算框架,可以从很多数据源消费数据并对数据进行实时的处理,具有高吞吐量容错能力强等特点。

在这里插入图片描述
在这里插入图片描述
  • Spark Streaming的特点

1.易用

可以像编写离线批处理一样去编写流式程序,支持java/scala/python语言。

2.容错

SparkStreaming在没有额外代码和配置的情况下可以恢复丢失的工作。

3.易整合到Spark体系

流式处理与批处理和交互式查询相结合。

1.3 实时计算所处的位置

在这里插入图片描述
在这里插入图片描述

我们也可以看到SparkStreaming也是做分布式实时计算的,但具体其原理是什么,如何操作?具体讲解请往下看。

第二章 SparkStreaming原理

2.1 SparkStreaming原理

2.1.1 整体流程

Spark Streaming中,会有一个接收器组件Receiver,作为一个长期运行的task跑在一个Executor上。Receiver接收外部的数据流形成input DStream

DStream会被按照时间间隔划分成一批一批的RDD,当批处理间隔缩短到秒级时,便可以用于处理实时数据流。时间间隔的大小可以由参数指定,一般设置在500毫秒到几秒之间

对DStream进行操作就是对RDD进行操作,计算处理的结果可以传给外部系统。

Spark Streaming的工作流程像下面的图所示一样,接收到实时数据后,给数据分批次,然后传给Spark Engine(引擎)处理最后生成该批次的结果。

在这里插入图片描述
在这里插入图片描述
2.1.2 数据抽象

Spark Streaming的基础抽象是DStream(Discretized Stream,离散化数据流,连续不断的数据流),代表持续性的数据流和经过各种Spark算子操作后的结果数据流

  • 可以从以下多个角度深入理解DStream

1.DStream本质上就是一系列时间上连续的RDD

在这里插入图片描述
在这里插入图片描述

2.对DStream的数据的进行操作也是按照RDD为单位来进行的

在这里插入图片描述
在这里插入图片描述

3.容错性

底层RDD之间存在依赖关系,DStream直接也有依赖关系,RDD具有容错性,那么DStream也具有容错性

如图:

每一个椭圆形表示一个RDD 椭圆形中的每个圆形代表一个RDD中的一个Partition分区 每一列的多个RDD表示一个DStream(图中有三列所以有三个DStream) 每一行最后一个RDD则表示每一个Batch Size所产生的中间结果RDD

在这里插入图片描述
在这里插入图片描述

4.准实时性/近实时性

Spark Streaming将流式计算分解成多个Spark Job,对于每一时间段数据的处理都会经过Spark DAG图分解以及Spark的任务集的调度过程。

对于目前版本的Spark Streaming而言,其最小的Batch Size的选取在0.5~5秒钟之间

所以Spark Streaming能够满足流式准实时计算场景,对实时性要求非常高的如高频实时交易场景则不太适合

  • 总结

简单来说DStream就是对RDD的封装,你对DStream进行操作,就是对RDD进行操作。对于DataFrame/DataSet/DStream来说本质上都可以理解成RDD

在这里插入图片描述
在这里插入图片描述

2.2 DStream相关操作

DStream上的操作与RDD的类似,分为以下两种:

  • Transformations(转换)
  • Output Operations(输出)/Active
2.2.1 Transformations
  • 常见Transformation—无状态转换:每个批次的处理不依赖于之前批次的数据
在这里插入图片描述
在这里插入图片描述
  • 特殊的Transformations—有状态转换:特殊的Transformations—有状态转换:当前批次的处理需要使用之前批次的数据或者中间结果。

有状态转换包括基于追踪状态变化的转换(updateStateByKey)滑动窗口的转换

  • 1.UpdateStateByKey(func)
  • 2.Window Operations 窗口操作
2.2.2 Output/Action

Output Operations可以将DStream的数据输出到外部的数据库或文件系统。当某个Output Operations被调用时,spark streaming程序才会开始真正的计算过程(与RDD的Action类似)

在这里插入图片描述
在这里插入图片描述

2.3 总结

如果说用一幅图来总结上面的核心知识点,我觉得下面这个流程图就很不错~

在这里插入图片描述
在这里插入图片描述

好了,本篇主要讲解的都是基于SparkStreaming的基础理论,下一篇博客博主将带来实战篇,敬请期待!!!受益的朋友或对大数据技术感兴趣的伙伴记得点赞关注支持一波(^U^)ノ~YO

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2020/04/13 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 第一章 Spark Streaming引入
    • 1.1 新的场景需求
      • 1.2 Spark Streaming介绍
        • 1.3 实时计算所处的位置
        • 第二章 SparkStreaming原理
          • 2.1 SparkStreaming原理
            • 2.1.1 整体流程
            • 2.1.2 数据抽象
          • 2.2 DStream相关操作
            • 2.2.1 Transformations
            • 2.2.2 Output/Action
          • 2.3 总结
          相关产品与服务
          流计算 Oceanus
          流计算 Oceanus 是大数据产品生态体系的实时化分析利器,是基于 Apache Flink 构建的企业级实时大数据分析平台,具备一站开发、无缝连接、亚秒延时、低廉成本、安全稳定等特点。流计算 Oceanus 以实现企业数据价值最大化为目标,加速企业实时化数字化的建设进程。
          领券
          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档