前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >BigData |述说Apache Spark

BigData |述说Apache Spark

作者头像
Sam Gor
发布2019-08-21 22:52:00
6650
发布2019-08-21 22:52:00
举报
文章被收录于专栏:SAMshareSAMshare

Index

  • 什么是Apache Spark
  • 弹性分布式数据集(RDD)
  • Spark SQL
  • Spark Streaming

什么是Apache Spark

1. 简单介绍下Apache Spark

Spark是一个Apache项目,被标榜为"Lightning-Fast"的大数据处理工具,它的开源社区也是非常活跃,与Hadoop相比,其在内存中运行的速度可以提升100倍。Apache Spark在Java、Scale、Python和R语言中提供了高级API,还支持一组丰富的高级工具,如Spark SQL(结构化数据处理)、MLlib(机器学习)、GraphX(图计算)、SparkR(统计分析)以及Spark Streaming(处理实时数据)。

Apache Spark 官方文档中文版:http://spark.apachecn.org/#/

2. 为什么要使用Apache Spark

在我们学习一个新工具之前,需要先了解一下这门技术出现的意义、应用的场景、与同类工具相比的优缺点等等,这样子才能更加条理地去学习它,也更加容易掌握。

对于Spark,我们需要问的是:为什么有Hadoop和MapReduce,还需要它呢?可能它解决了Hadoop和MapReduce不能解决的问题,具体是什么问题呢?

MapReduce的缺陷:

  • 复杂的数据处理会被分解为很多job组成的有向无环图(DAG),然后每个Mapper和Reducer放到Hadoop集群上去执行,效率比较低;
  • MapReduce模型的抽象层次低,大量的底层逻辑需要开发者自己手工完成;
  • 在Hadoop中,每一个job的计算结果都会储存在HDFS文件存储系统中,所以每一步计算都需要进行硬盘的读存操作,增加了系统延迟;
  • 只支持批数据处理,对流数据处理无法支持。

那么,Spark到底有哪些优势,让这么多的开发者如此着迷??

Spark的优势:

Spark最基本的数据抽象叫弹性分布式数据集(Resilient Distributed Dataset,RDD),它代表一个可以被分区(partition)的只读数据集,它内部可以有很多分区,每个分区又有大量的数据记录。

  • RDD是Spark最基本的数据结构,后面小节会详细介绍。Spark定义了很多对RDD的操作,如Map、Filter、flatMap、groupByKey和Union等,开发者可以直接使用;
  • Spark会把中间数据缓存在内存中,从而加快了处理速度;
  • Spark的并行机制是多线程模型,而MapReduce是多进程模型,我们知道,多进程模型会消耗更多的启动时间。

备注:图来自于极客时间

弹性分布式数据集(RDD)

Spark的基础数据结构就是RDD,全称是Resilient Distributed Dataset,弹性分布式数据集。Spark基于RDD定义了很多数据操作,从而使得代码看起来非常简洁。

RDD是一个基于分布式内存的数据抽象,支持工作集的应用,也具有数据流模型的特点,表示已被分区、不可变的、并能够被并行操作的数据集合。

  • 分区: 代表同一个RDD包含的数据被储存在系统的不同节点中,这也是它可以被并行处理的前提。每个分区指向一个存放在内存或者硬盘中的数据块(Block),并且是相互独立,所以,RDD内部不会存储具体的数据。RDD中有ID与分区一一对应,从而通过底层的接口中提取数据。
  • 不可变性: 代表每一个RDD都是只读的,所包含的分区信息不可以被修改,所以如果想要修改,就只能通过转换(Transformation),得到新的RDD作为中间计算结果。这样子做,我们只需要记录它是通过哪个RDD进行哪些操作得到的,而不用立刻去具体存储计算出的数据本身,有助于提升Spark的计算效率,并且使得错误恢复更加容易。
  • 并行操作: 由于RDD的分区特性,使得它天然支持并行操作,即不同节点上的数据可以被分别处理,然后产生一个新的RDD。

备注:点击看高清大图

重点说下RDD的主流分区方式:Hash partitioner和Range partitioner。前者对数据的key进行散列分区,后者则是按key的排序均匀分区,绝大部分情况下HashPartitioner都可以满足需求,但有的时候分区数据量会不均匀,而RangePartitioner则尽量保证每个分区的数据量均匀。具体的RDD分区策略可以参考:

Spark RDD分区策略:://www.jianshu.com/p/a21b3be88afd?utm_campaign

此外,也说下依赖关系,Spark支持的两种依赖关系:窄依赖(Narrow Dependency)和宽依赖(Wide Dependency)。前者就是父RDD的分区一一对应到子RDD,比如map、filter操作,后者则就是父RDD的每个分区都可以被多个子RDD的分区使用,比如Join、groupBy操作。窄依赖允许每个分区并行处理。

1. RDD的数据操作

RDD的数据操作分为两种:Transformation(转换)和Action(动作)。

Transformation就是用来把一个RDD转换成另一个RDD,而Action则是通过计算返回一个结果。

  • parallelize()/collect()/glom(): parallelize函数是将一个List转化为一个RDD对象,collect函数则是将RDD对象转化为一个List,glom函数则是显示RDD的分区情况。
代码语言:javascript
复制
L = [1,2,3,4,5]
old = sc.parallelize(L, 2)
print(old.collect()) // [1,2,3,4,5]
print(old.glom().collect()) // [[1,2],[3,4,5]]
  • Map: 转换操作,它把一个RDD中的所有数据通过一个函数映射成了一个新的RDD,任何原RDD中的元素在新RDD中都有且只有一个元素与之对应。
代码语言:javascript
复制
rdd = sc.parallelize(["b","a","c"])
rdd2 = rdd.map(lambda x:(x, 1)) // [("b", 1), ("a", 1), ("c", 1)]
  • Filter: 转换操作,选择原RDD中满足某些特定条件的数据,返回一个新的RDD。
代码语言:javascript
复制
rdd = sc.parallelize([1, 2, 3, 4, 5])
rdd2 = rdd.filter(lambda x:x%2 == 0) // [2, 4]
  • mapPartitions: 转换操作,类似于Map的变种,不同于map的输入函数对应RDD的所有元素,mapPartitions的输入函数应用于RDD的每个分区,也就是说每个分区的内容作为整体去处理,就是对RDD中的每个分区的迭代器进行操作。
代码语言:javascript
复制
rdd = sc.parallelize([1, 2, 3, 4], 2)
def f(iterator): yield sum(iterator)
rdd2 = rdd.mapPartitions(f) // [3, 7]
  • groupByKey: 转换操作,groupByKey和SQL中的groupBy类似,就是把对象的集合按某个key归类,返回的RDD中每个key对应一个序列。
代码语言:javascript
复制
rdd = sc.parallelize([("a", 1), ("b", 1), ("a", 2)])
rdd.groupByKey().collect()
//"a" [1, 2]
//"b" [1]
  • Collect: 动作操作,以数组的形式返回RDD的所有元素。
  • Reduce: 把RDD中的元素根据一个输入函数聚合起来。
  • Count: 返回RDD中元素的个数。
  • CountByKey: 仅适用于Key-Value pair类型的RDD,返回具有每个key的计数的<Key,Count>的map
代码语言:javascript
复制
rdd = sc.parallelize([("a", 1), ("b", 1), ("a", 1)])
sorted(rdd.countByKey().items()) // [('a', 2), ('b', 1)]

总结一下:

Spark在每次转换操作的时候,都是"惰性求值",使用了新产生的RDD来记录计算逻辑,这样就把作用在RDD上的所有计算逻辑串联起来,形成一个链条,当遇上RDD的动作操作时,Spark就会从计算链条的最后一个RDD开始,依次从上一个RDD获取数据并执行计算逻辑,最后输出结果。

2. RDD的持久化(缓存)

每当我们对RDD调用一个新的action操作时,整个RDD都会从头开始计算,因此如果某一个RDD被反复利用的话,这样子的方式是低效的,我们需要对其进行持久化操作。Spark中persist()和cache()方法都支持,它将RDD的数据缓存到内存或者硬盘中,大大提高反复利用的计算效率。

代码语言:javascript
复制
rdd = sc.parallelize([1, 2, 3, 4, 5])
rdd1 = rdd.map(lambda x: x+5)
rdd2 = rdd1.filter(lambda x: x % 2 == 0)
rdd2.persist()
count = rdd2.count() // 3
first = rdd2.first() // 6
rdd2.unpersist()

Spark SQL

其实在我们实际进行数据操作的时候,并不用像上面说的那样子操作,不需要到RDD层次进行编程的,Spark生态系统里有很多库可以用,而其中的数据查询模块Spark SQL就很常用。

1. Spark SQL的发展

在Hadoop/MapReduce流行的时候,HDFS里就累计了大量数据,但大部分的开发者只对关系型数据库熟悉,对于MapReduce的开发还是有点难度,因此,Hive应运而生,它提供类似SQL的编程接口,HQL语句可以经过语法解析、逻辑计划、物理计划转化成MapReduce程序执行,十分方便。

当Spark面世的时候,Spark团队也是开了一个Shark来支持SQL语言查询数据,但Shark的本质是Hive,对Hive是十分依赖的,制约了Shark和其他Spark组件之间的集成。于是,14年7月,Spark团队将Shark托管给Hive,转而自己开发Spark SQL。

2. SparkSQL架构

SparkSQL提供了类似于SQL的操作接口,允许数据仓库、命令行、应用程序直接获取数据,提供两个API:DataFrame API和DataSet API,Python、Java和Scale的应用程序可以通过这两个API来读取和写入RDD。

备注:图来自于极客时间

  • DataSet: 就是数据集,为Spark 1.6新引入的接口,其支持的转换和动作和RDD类似,如map、filter、select、count、show等等,同时,不同于RDD,DataSet提供了详细的结构信息和每列的数据类型,这可以让SparkSQL知道数据集中包含了哪些列,这样子的结构让DataSet API的执行效率更高。
  • DataFrame: 常用Python做数据分析的都知道DataFrame,但这里的有点不同。它每一列并不存储信息,所以对于DataSet我们可以直接用people.name 来访问一个人的名字,而对于DataFrame则要用people.get As [String] ("name")来访问。

下面给出了RDD、DataFrame和DataSet的对比:

备注:图来自于极客时间

总结一下:

DataFrame和DataSet都是SparkSQL提供的基于RDD的结构化数据抽象,具有RDD的不可变性、分区、存储依赖关系的特性,又有关系型数据库的结构化信息,更加容易操作,大大提供开发效率,无论是哪种API,都是基于批处理模式对静态数据进行处理。

Spark Streaming

上述说的SparkSQL都是基于批处理模式对静态数据进行处理,但如果我们需要处理流数据,就需要另外一个组件——Spark Streaming。

Spark Streaming提供了一个对于流数据的抽象 DStream,可以由来自Apache Kafka、Flume或者HDFS的流数据生成,也可以由别的DStream经过各种转换操作得到。DStream也是由很多个序列化的RDD构成,按时间片切分成的每个数据单位都是一个RDD,然后Spark核心引擎对DStream的Transformation操作变成对RDD的Transformation操作,将RDD经过操作变成中间结构保存在内存里。

1. DStream结构

DStream由一个个连续的RDD序列组成,每一个RDD代表一个时间窗口的输入数据流。对DStream进行操作,意味着对它包含的每一个RDD进行同样的操作。

备注:图来自于极客时间

2. 滑动窗口操作

任何Spark Streaming的程序都要首先创建一个StreamingContext的对象,它是所有Streaming操作的入口,当中最重要的参数是批处理的时间间隔,即把流数据细分成数据块的粒度大小。这个时间间隔决定了流处理的延迟性,所以我们需要根据实际需求和资源情况来权衡时间间隔。

滑动窗口操作有两个基本参数:

  • 窗口长度(window length):每次统计的数据的时间跨度。
  • 滑动间隔(sliding interval):每次统计的时间间隔。
备注:图来自于极客时间
? 3. Spark Streaming的优缺点

优点:

  • 数据容错性:如果RDD的某些分区丢失了,可以通过依赖关系重新计算恢复。
  • 运行速度: 将数据流存在在内存中,速度优势明显。
  • 扩展性: 基于Spark Streaming的应用程序容易扩展。

缺点:

  • 实时计算延迟较高:一般在的级别。

References

  • 百度百科
  • 蔡元楠-《大规模数据处理实战》12-16小节 —— 极客时间
  • Apache Spark 官方文档中文版——ApacheCN
  • Spark之深入理解RDD结构 https://blog.csdn.net/u011094454/article/details/78992293
  • Spark RDD分区策略 https://www.jianshu.com/p/a21b3be88afd?utm_campaign
本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-05-26,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 SAMshare 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Index
  • 什么是Apache Spark
    • 1. 简单介绍下Apache Spark
      • 2. 为什么要使用Apache Spark
      • 弹性分布式数据集(RDD)
        • 1. RDD的数据操作
          • 2. RDD的持久化(缓存)
          • Spark SQL
            • 1. Spark SQL的发展
              • 2. SparkSQL架构
              • Spark Streaming
                • 1. DStream结构
                  • 2. 滑动窗口操作
                    • 备注:图来自于极客时间
                      • ? 3. Spark Streaming的优缺点
                      • References
                      相关产品与服务
                      领券
                      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档