首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

【云原生】Spark on k8s 讲解与实战操作

一、概述

Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。

官方文档:https://spark.apache.org/docs/latest/

Spark on k8s官方文档:https://spark.apache.org/docs/latest/running-on-kubernetes.html

关于spark的介绍,可以参考我这篇文章:大数据Hadoop之——计算引擎Spark

二、开始 Spark on k8s 运行原理

可以直接用于向Kubernetes集群提交spark应用程序。提交机制的工作原理如下:

Spark创建一个Spark driver 在Kubernetes pod 运行。

driver 程序创建也在Kubernetes pods中运行的执行器,并连接到它们,然后执行应用程序代码。

当应用程序完成时,执行程序pod将终止并被清理,但驱动程序pod会保存日志并在Kubernetes API中保持“已完成”状态,直到最终进行垃圾收集或手动清理。

三、Spark 运行模式

:客户端进程,负责提交作业到Master。

:Standalone模式中主控节点,负责接收Client提交的作业,管理Worker,并命令Worker启动Driver和Executor。

:Standalone模式中slave节点上的守护进程,负责管理本节点的资源,定期向Master汇报心跳,接收Master的命令,启动Driver和Executor。

: 一个Spark作业运行时包括一个Driver进程,也是作业的主进程,负责作业的解析、生成Stage并调度Task到Executor上。包括 DAGScheduler , TaskScheduler 。

1)cluster 模式

Driver程序在某个worker节点,但是这个节点由Master指定;

Driver程序占据Worker的资源;

cluster mode下Master可以使用–supervise对Driver进行监控,如果Driver挂了可以自动重启;

cluster mode下Master节点和Worker节点一般不在同一局域网,因此就无法将Jar包分发到各个Worker,所以cluster mode要求必须提前把Jar包放到各个Worker节点对应的目录下面。

2)client 模式

Driver进程就是开始执行你Spark程序的那个Main函数,它可以在任何节点(可以是spark集群内的节点,Master节点或Worker节点;也可以是有spark环境但不是spark集群内的某台机器);Worker就是Slave节点,Executor进程必然在Worker节点上,用来进行实际的计算;

client mode下Driver进程不运行在Worker节点上,所以相对于参与实际计算的Worker节点而言,Driver就相当于是一个第三方的“client”;

正由于Driver进程不在Worker节点上,所以不会消耗Worker节点上的资源;

client mode下Master和Worker节点必须处于同一片局域网内,因为Drive要和Executor通信,例如Driver需要将Jar包通过Netty HTTP分发到Executor,Driver要给Executor分配任务等;

client mode下没有监督重启机制,Driver进程如果挂了,需要额外的程序重启。

四、开始Spark on k8s 编排

1)下载Spark包

2)构建镜像

Spark(从2.3版开始)附带了一个Dockerfile,可以在kubernetes/dockerfiles/目录中找到它。

Spark还附带一个构建和push镜像的脚本 。构建镜像命令如下:

3)配置 spark 用户权限

4)提交 Spark 任务(cluster 模式)

【注意】这里的  指的是容器的文件系统路径,不是执行 spark-submit 的机器的文件系统路径,如果不使用 local 的话,也可以用 、 等系统,没指定的话默认是 local 模式

5)配置spark历史服务器

这里依赖与Hadoop hdfs环境,Hadoop on k8s环境部署可以参考我以下两篇文章:

存储目录需要提前创建

执行

web:http://192.168.182.110:31180

再提交任务

6)提交 Spark 任务(client 模式)

从Spark 2.4.0开始,可以在客户端模式下在Kubernetes上运行Spark应用程序。当应用程序在客户端模式下运行时,驱动程序可以在k8s pod或物理主机上运行。

1、配置 spark 用户权限

2、准备独立Pod

配置 spark 容器,会在这个容器里以 client 模式 submit spark 程序,所以这个容器也会作为 driver。

3、暴露service

我们任意指定一个端口暴露,后续client mode将通过去DNS去查找Driver Pod的位置,这也是Spark on k8s要求DNS的原因。

执行

4、提交 spark 任务

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230223A00Q3F00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券