经过几天闲暇时间的学习,终于又理解的深入了一些,关于Spark Client如何提交作业也更清晰了点。
在整体的流程图上是这样的:
大体的思路就是应用程序通过SparkSubmit提交程序后,自动在当前的JVM中启动Driver,然后与Master通信创建Excutor执行相应的任务。
自己整理了下流程图
以及的组件图:
可以看到大概是下面的步骤:
CoarseGrainedSchedulerBackend
的start方法
override def start() { super.start() ... client = new StandaloneAppClient(sc.env.rpcEnv, masters, appDesc, this, conf) client.start() }DriverEndpoint和ClientEndpoint都会跟Master进行通信,接下来的处理就是编译驱动程序的代码,发送给excutor进行相应的处理。