前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Spark内核分析之Spark的HA源码分析

Spark内核分析之Spark的HA源码分析

作者头像
z小赵
发布2018-09-05 15:46:24
5860
发布2018-09-05 15:46:24
举报
文章被收录于专栏:简单聊聊Spark简单聊聊Spark

Spark作业运行的集群环境有两种,分别基于standalone模式和Yarn集群模式。我们知道Yarn集群提供了HA来保证了集群的高可用,而standalone也提供了一种集群高可用的方法,即通过配置可以实现双master机制,保证在一个master挂掉以后,另外一个master立即启用。spark的主备切换提供了两种模式,一种是基于文件系统的,另外一种是基于zookeeper的。下面我们来看看spark集群的master主备切换是怎么实现的,如下图所示;

Master主备切换原理图

1.当active master挂掉以后,通知standby master启动,并使用持久化引擎对持久化数据进行读取; 2.持久化引擎将不为空的数据全部注册到master的内存缓冲中; 3.master向所有的Application,Worker发送自己的地址信息; 4.Application,Driver,Worker收到消息并返回一个消息告知master; 5.master一一接收到来自各个Application,worker,Driver的消息以后,开始过滤掉没有响应的节点信息,然后开始调用scheduler()方法,开始为相关进程分配资源;

通过以上原理的介绍,下面看看我们的源码具体是怎么实现的,

worker过滤具体实现

application过滤实现

Driver过滤实现

        关于持久化引擎的补充说明,在spark中引入了三种持久化引擎,分别是基于文件的持久化引擎,基于zookeeper的持久化引擎,BlackHolePersistenceEngine引擎;系统默认采用的是基于文件的持久化引擎,可以通过spark.deploy.recoveryMode参数配置具体采用那种持久化引擎,该参数的设置位置时spark-env.sh中。

设置为zookeeper的方式:

//spark.deploy.recoveryMode=ZOOKEEPER //spark.deploy.zookeeper.url=192.168.1.100:2181,192.168.1.101:2181 // /spark是默认的,可以不写 //spark.deploy.zookeeper.dir=/spark

设置为基于文件系统的方式:

spark.deploy.recoveryMode=FILESYSTEM spark.deploy.recoveryDirectory=/usr/local/src/spark/dataDir

总结:到这里基本上关于spark的HA的原理及实现分析就完了,后续关于其他组件的实现及源码不定期更新,欢迎关注。

如需转载,请注明:

上一篇:Spark内核分析之SparkContext初始化源码分析

本篇:Spark内核分析之Spark的HA源码分析

下一篇:Spark内核分析之Master的注册机制实现原理

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2017.12.21 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档