前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Spark之RDD详解

Spark之RDD详解

作者头像
CSDN技术头条
发布2018-02-12 16:27:00
1.1K0
发布2018-02-12 16:27:00
举报
文章被收录于专栏:CSDN技术头条CSDN技术头条

RDD

概念与特性

RDD是Spark最重要的抽象。spark统一建立在抽象的RDD之上。设计一个通用的编程抽象,使得spark可以应对各种场合的大数据情景。RDD模型将不同的组件融合到一起,选用其中的几个/所有,可以应付各种不同的场景。解决了mr的缺陷:

  • 弹性分布式数据集Resilient Distributed Dataset
  • 只读分区数据集,final修饰的
  • 一个分布式的数据集合,是spark中的核心,spark的操作都是围绕RDD展开的
  • 真正的运算是在各个计算节点
  • 当某个RDD操作丢失的时候,可以很快恢复

分区

  • 不同分区可能被划分到不同机器上。但是每个分区对应一个数据block
  • 分区是个逻辑概念,新旧分区可能是同一块内存。(重要的优化,节约资源。)。在函数式编程,经常使用常量,但是很费内存,rdd的这种优化非常实用。防止内存的无限性扩充
  • 只是记录需要做的操作。只有当真正要执行的时候,才具体的执行
  • 从路径读取的数据,可能有许多块,实际上RDD也是在各个区内执行的(解释了分布式),但是数据已经io到内存当中了。后续的每一步操作都生成一个RDD。每一步都是在分区上

计算

  • 并行计算。计算/处理都是在各分区上,并行计算。并行,提高了效率
  • 真正的数据处理都是在各个分散的节点上

依赖

  • 子RDD从父RDD产生,父子RDD之间的关系
  • 宽依赖:依赖上级所有的RDD分区。宽依赖一般非常消耗资源,结果一般要缓存下来
  • 窄依赖:依赖上级RDD的部分分区。计算的时候可能都在同一个节点上,节省资源
  • stage以依赖的区别,分成不同的stage
  • 每个父RDD的分区,只能被最多一个字RDD使用,子RDD可以使用任意个父RDD

RDD的创建

从外部数据集中读取。来源于文件系统,这里的路径要让每个RDD的节点都能访问到:

lines = sc.textFile("文件路径") // 可以指定分片的个数 lines = sc.textFle("路径",3) // 返回一个文件名:文件内容的二元组 lines = sv.whileFile("路径")

从驱动程序中对一个集合进行并行化,在测试的时候用的多:

val lines = sc.parallelize(list["name","age"])

RDD的转化

  • 不进行具体操作,类似scala中的惰性求值
  • 从一个RDD生成另一个RDD的过程。spark用lineage的方式表示各个RDD的依赖关系,链表的表头是textFile
  • 参考fp中的概念,这里只做逻辑运算,接受一个RDD,结果产生一个RDD,没有任何副作用
  • RDD常见的转化操作:

map RDD.map(fun) 将函数应用于每个元素,结果返回一个RDD包含每个元素的函数处理结果 flatmap RDD.flatmap(fun) 同map,结果返回一个包含所有处理结果的整体。生成的分片数不变,只是在逻辑上成一个整体 filter RDD.filter(fun) 过滤掉不符合要求的数据 distinct RDD.distinct() 去重,需要shuffle代价大 union RDD.union(RDD1) 两个RDD求并集 intersection RDD. intersection(RDD1) 两个RDD求交集 substract RDD.substract(RDD1) 从RDD中移除RDD1的内容 cartesian RDD.cartesian(RDD1) 生成RDD与RDD1的笛卡尔积 pipe RDD.pipe("shell命令") 利用linux中的shell语言,对数据操作。 zip RDD.zip(RDD1) 将RDD和RDD1组成一个kv格式的新RDD

RDD的行动

  • 真正的开始处理和操作,强制执行所有的RDD
  • RDD常见的行动操作:

collect() RDD.collect() 返回RDD中的所有元素。只能计算小规模的RDD,否则要shuffle代价大 count() RDD.count() 统计RDD中元素的个数 countByVale() RDD.countByValue() 每个元素在RDD中出现的次数。 take() RDD.take(n) 返回RDD中的n个元素 top() RDD.top(N) 返回RDD中的前N个元素 takeOrdered() RDD.takeOrdered(n) 按照要求的顺序返回前n个元素 takeSample() RDD.takeSample(n) 从RDD中任意返回n个元素 reduce() RDD.reduce(fun) 并行整合RDD中所有的元素 fold() RDD.fold(num)(fun) 提供初始值,的reduce aggregate() RDD.aggregate() ????????? foreach() RDD.foreach(fun) 对RDD中的 每个元素使用给定的函数

RDD的持久化

  • 提高了数据的可重用性
  • 把RDD中的结果持久化到内存中。当后续的操作需要用到某些RDD运算结果的时候,持久化到内存可以提高效率。主要有cahce方法和persist方法。
  • 当要缓存的内容太多,用LRU算法淘汰。
  • 保存

RDD.saveAsTextFile("路径")

  • 持久化级别:

RDD的工作流程

  • RDD把操作记录程DAG图,记录各个DAG中的转换关系
  • 无论进行了多少次转换,只有真正遇到action的时候才真正计算

原文:http://blog.csdn.net/u011283591/article/details/66972088

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-03-29,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 CSDN技术头条 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
GPU 云服务器
GPU 云服务器(Cloud GPU Service,GPU)是提供 GPU 算力的弹性计算服务,具有超强的并行计算能力,作为 IaaS 层的尖兵利器,服务于深度学习训练、科学计算、图形图像处理、视频编解码等场景。腾讯云随时提供触手可得的算力,有效缓解您的计算压力,提升业务效率与竞争力。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档