首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Spark Core源码精读计划7 | Spark执行环境的初始化

    欢迎您关注《大数据成神之路》 推荐阅读 《Spark源码精度计划 | SparkConf》 《Spark Core源码精读计划 | SparkContext组件初始化》 《Spark Core源码精读计划...3 | SparkContext辅助属性及后初始化》 《Spark Core源码精读计划4 | SparkContext提供的其他功能》 《Spark Core源码精读计划5 | 事件总线及ListenerBus...SparkEnv初始化成功之后,与Spark存储、计算、监控等相关的底层功能才会真正准备好,可见它几乎与SparkContext同等重要。...Spark作为一个内存优先的大数据处理框架,内存管理机制是非常精细的,主要涉及存储和执行两大方面。其初始化代码如下。...总结 本文从SparkEnv的初始化方法入手,按顺序简述了十余个与Spark执行环境相关的内部组件及其初始化逻辑。

    82030

    Spark Core源码精读计划 | SparkContext组件初始化

    它存在于Driver中,是Spark功能的主要入口,如果没有SparkContext,我们的应用就无法运行,也就无从享受Spark为我们带来的种种便利。...本文主要研究SparkContext初始化过程中涉及到的那些Spark组件,并对它们进行介绍。...SparkEnv SparkEnv是Spark中的执行环境。Driver与Executor的运行都需要SparkEnv提供的各类组件形成的环境来作为基础。其初始化代码如下。...如果开启,并且SchedulerBackend的实现类支持这种机制,Spark就会根据程序运行时的负载动态增减Executor的数量。它的初始化代码如下。...总结 本文从SparkContext的构造方法入手,按顺序简述了十余个Spark内部组件及其初始化逻辑。

    67130

    Spark内核分析之SparkContext初始化源码分析

    上一篇介绍了spark作业提交的三种方式,从本篇开始逐一介绍Spark作业运行流程中各个组件的内部工作原理。...如标题所说,我们先来看看SparkContext在Spark作业提交后做了哪些事情,工作流程如下图所示;(注意:本篇文章及后续源码分析所有内容全部基于spark1.3.0源码进行分析,后续不再赘述) ?...SparkContext初始化流程图 1.Spark作业提交以后,通过SparkContext的createTaskScheduler()方法来初始化scheduler(TaskSchedulerImpl...registerWithMaster方法实现         以上即为SparkContext的初始化过程,在这个过程中同时也初始化了两外两个重要的组建,分别为DAGScheduler和Spark UI...如需转载,请注明: 上一篇:Spark内核分析之spark作业的三种提交方式 本篇:Spark内核分析之SparkContext初始化源码分析

    76030

    为什么 Spark Streaming + Kafka 无法保证 exactly once?

    Streaming job 的调度与执行 结合文章 揭开Spark Streaming神秘面纱④ - job 的提交与执行我们画出了如下 job 调度执行流程图: ?...这样的机制会引起数据重复消费问题: 为了简化问题容易理解,我们假设一个 batch 只生成一个 job,并且 spark.streaming.concurrentJobs 值为1,该值代表 jobExecutor...如果一个 batch 有多个 job 并且spark.streaming.concurrentJobs大于1,那么这种情况就会更加严重,因为这种情况下就会有多个 job 已经完成但在 checkpoint...---- 另一种会导致数据重复消费的情况主要是由于 Spark 处理的数据单位是 partition 引起的。...比如在处理某 partition 的数据到一半的时候,由于数据内容或格式会引起抛异常,此时 task 失败,Spark 会调度另一个同样的 task 执行,那么此时引起 task 失败的那条数据之前的该

    76810
    领券