1. kube-scheduler 的设计
Scheduler 在整个系统中承担了“承上启下”的重要功能。“承上”是指它负责接受 Controller Manager 创建的新 Pod,为其安排 Node;“启下”是指安置工作完成后,目标 Node 上的 kubelet 服务进程接管后续工作。Pod 是 Kubernetes 中最小的调度单元,Pod 被创建出来的工作流程如图所示:
在这张图中
通过这个流程我们可以看出整个过程中最重要的就是 apiserver watch API 和kube-scheduler的调度策略。
总之,kube-scheduler 的功能是为还没有和任何 Node 节点绑定的 Pods 逐个地挑选最合适 Pod 的 Node 节点,并将绑定信息写入 etcd 中。整个调度流程分为,预选(Predicates)和优选(Priorities)两个步骤。
kubernetes 版本: v1.21
scheduler.New()
初始化 scheduler 结构体在程序的入口,是通过一个 runCommand 函数来唤醒 scheduler 的操作的。首先会进入 Setup 函数,它会根据命令参数和选项创建一个完整的 config 和 scheduler。创建 scheduler 的方式就是使用 New 函数。
Scheduler 结构体:
scheduler.New() 方法是初始化 scheduler 结构体的,该方法主要的功能是初始化默认的调度算法以及默认的调度器 GenericScheduler。
schedulerAlgorithmSource
然后加载默认的预选及优选算法,然后初始化 GenericScheduler
GenericScheduler
,不过该参数现已被弃用kubernetes/pkg/scheduler/scheduler.go:189
// New函数创建一个新的scheduler
func New(client clientset.Interface, informerFactory informers.SharedInformerFactory,recorderFactory profile.RecorderFactory, stopCh <-chan struct{},opts ...Option) (*Scheduler, error) {
//查看并设置传入的参数
……
snapshot := internalcache.NewEmptySnapshot()
// 创建scheduler的配置文件
configurator := &Configurator{……}
metrics.Register()
var sched *Scheduler
source := options.schedulerAlgorithmSource
switch {
case source.Provider != nil:
// 根据Provider创建config
sc, err := configurator.createFromProvider(*source.Provider)
……
case source.Policy != nil:
// 根据用户指定的策略(policy source)创建config
// 既然已经设置了策略,在configuation内设置extender为nil
// 如果没有,从Configuration的实例里设置extender
configurator.extenders = policy.Extenders
sc, err := configurator.createFromConfig(*policy)
……
}
// 对配置器生成的配置进行额外的调整
sched.StopEverything = stopEverything
sched.client = client
addAllEventHandlers(sched, informerFactory)
return sched, nil
}
在 New 函数里提供了两种初始化 scheduler 的方式,一种是 source.Provider,一种是 source.Policy,最后生成的 config 信息都会通过sched = sc
创建新的调度器。Provider 方法对应的是createFromProvider
函数,Policy 方法对应的是createFromConfig
函数,最后它们都会调用 Create 函数,实例化 podQueue,返回配置好的 Scheduler 结构体。
Run()
启动主逻辑kubernetes 中所有组件的启动流程都是类似的,首先会解析命令行参数、添加默认值,kube-scheduler 的默认参数在 k8s.io/kubernetes/pkg/scheduler/apis/config/v1alpha1/defaults.go
中定义的。然后会执行 run 方法启动主逻辑,下面直接看 kube-scheduler 的主逻辑 run 方法执行过程。
Run()
方法主要做了以下工作:
sched.Run()
方法,执行主调度逻辑kubernetes/cmd/kube-scheduler/app/server.go:136
// Run 函数根据指定的配置执行调度程序。当出现错误或者上下文完成的时候才会返回。
func Run(ctx context.Context, cc *schedulerserverconfig.CompletedConfig, sched *scheduler.Scheduler) error {
// 为了帮助debug,先记录Kubernetes的版本号
klog.V(1).Infof("Starting Kubernetes Scheduler version %+v", version.Get())
// 1、配置Configz
if cz, err := configz.New("componentconfig"); err == nil {……}
// 2、准备事件广播管理器,此处涉及到Events事件
cc.EventBroadcaster.StartRecordingToSink(ctx.Done())
// 3、启动 http server,进行健康监控服务器监听
if cc.InsecureServing != nil {……}
if cc.InsecureMetricsServing != nil {……}
if cc.SecureServing != nil {……}
// 4、启动所有 informer
cc.InformerFactory.Start(ctx.Done())
// 等待所有的缓存同步后再进行调度。
cc.InformerFactory.WaitForCacheSync(ctx.Done())
// 5、因为Master节点可以存在多个,选举一个作为Leader。通过 LeaderElector 运行命令直到完成并退出。
if cc.LeaderElection != nil {
cc.LeaderElection.Callbacks = leaderelection.LeaderCallbacks{
OnStartedLeading: func(ctx context.Context) {
close(waitingForLeader)
// 6、执行 sched.Run() 方法,执行主调度逻辑
sched.Run(ctx)
},
// 钩子函数,开启Leading时运行调度,结束时打印报错
OnStoppedLeading: func() {
klog.Fatalf("leaderelection lost")
},
}
leaderElector, err := leaderelection.NewLeaderElector(*cc.LeaderElection)
// 参加选举的会持续通信
leaderElector.Run(ctx)
return fmt.Errorf("lost lease")
}
// 领导者选举失败,所以runCommand函数会一直运行直到完成
close(waitingForLeader)
// 6、执行 sched.Run() 方法,执行主调度逻辑
sched.Run(ctx)
return fmt.Errorf("finished without leader elect")
}
waitingForLeader
的 channel 用来监听信号status.phase
不为 succeeded 以及 failed 状态的 pod,即非 terminating 的 pod。sched.Run()
开始监听和调度然后继续看 Run()
方法中最后执行的 sched.Run()
调度循环逻辑,若 informer 中的 cache 同步完成后会启动一个循环逻辑执行 sched.scheduleOne
方法。
kubernetes/pkg/scheduler/scheduler.go:313
// Run函数开始监视和调度。SchedulingQueue开始运行。一直处于调度状态直到Context完成一直阻塞。
func (sched *Scheduler) Run(ctx context.Context) {
sched.SchedulingQueue.Run()
wait.UntilWithContext(ctx, sched.scheduleOne, 0)
sched.SchedulingQueue.Close()
}
sched.SchedulingQueue.Run()
:会将 backoffQ 中的 Pods 节点和 unschedulableQ 中的节点移至 activeQ 中。即将之前运行失败的节点和已经等待了很长时间超过时间设定的节点重新进入活跃节点队列中。sched.SchedulingQueue.Close()
,关闭调度之后,对队列也进行关闭。SchedulingQueue 是一个优先队列。wait.UntilWithContext()
中出现了 sched.scheduleOne 函数,它负责了为单个 Pod 执行整个调度工作流程,也是本次研究的重点,接下来将会详细地进行分析。scheduleOne()
每次对一个 pod 进行调度,主要有以下步骤:
sched.schedule()
返回通过预算及优选算法过滤后选出的最佳 nodekubernetes/pkg/scheduler/scheduler.go:441
// scheduleOne为单个pod做整个调度工作流程。它被序列化在调度算法的主机拟合上。
func (sched *Scheduler) scheduleOne(ctx context.Context) {
// podInfo就是从队列中获取到的Pod对象
podInfo := sched.NextPod()
// 检查pod的有效性,当 schedulerQueue 关闭时,pod 可能为nil
if podInfo == nil || podInfo.Pod == nil {
return
}
pod := podInfo.Pod
//根据定义的pod.Spec.SchedulerName查到对应的profile
fwk, err := sched.frameworkForPod(pod)
if err != nil {
// 这不应该发生,因为我们只接受调度指定与配置文件之一匹配的调度程序名称的pod。
klog.ErrorS(err, "Error occurred")
return
}
// 可以跳过调度的情况,一般pod进不来
if sched.skipPodSchedule(fwk, pod) {
return
}
klog.V(3).InfoS("Attempting to schedule pod", "pod", klog.KObj(pod))
// 执行调度策略选择node
start := time.Now()
state := framework.NewCycleState()
state.SetRecordPluginMetrics(rand.Intn(100) < pluginMetricsSamplePercent)
schedulingCycleCtx, cancel := context.WithCancel(ctx)
defer cancel()
scheduleResult, err := sched.Algorithm.Schedule(schedulingCycleCtx, fwk, state, pod)
if err != nil {
/*
出现调度失败的情况:
这个时候可能会触发抢占preempt,抢占是一套复杂的逻辑,这里略去
目前假设各类资源充足,能正常调度
*/
}
metrics.SchedulingAlgorithmLatency.Observe(metrics.SinceInSeconds(start))
assumedPodInfo := podInfo.DeepCopy()
assumedPod := assumedPodInfo.Pod
// 为pod设置NodeName字段,更新scheduler缓存
err = sched.assume(assumedPod, scheduleResult.SuggestedHost)
if err != nil {……} // 如果出现错误,重新开始调度
// 运行相关插件的代码不作展示,这里省略运行reserve插件的Reserve方法、运行 "permit" 插件、 运行 "prebind" 插件.
// 真正做绑定的动作
err := sched.bind(bindingCycleCtx, fwk, assumedPod, scheduleResult.SuggestedHost, state)
if err != nil {
// 错误处理,清除状态并重试
} else {
// 打印结果,调试时将log level调整到2以上
if klog.V(2).Enabled() {
klog.InfoS("Successfully bound pod to node", "pod", klog.KObj(pod), "node", scheduleResult.SuggestedHost, "evaluatedNodes", scheduleResult.EvaluatedNodes, "feasibleNodes", scheduleResult.FeasibleNodes)
}
// metrics中记录相关的监控指标
metrics.PodScheduled(fwk.ProfileName(), metrics.SinceInSeconds(start))
metrics.PodSchedulingAttempts.Observe(float64(podInfo.Attempts))
metrics.PodSchedulingDuration.WithLabelValues(getAttemptsLabel(podInfo)).Observe(metrics.SinceInSeconds(podInfo.InitialAttemptTimestamp))
// 运行 "postbind" 插件
Binder 负责将调度器的调度结果,传递给 apiserver,即将一个 pod 绑定到选择出来的 node 节点。
sched.Algorithm.Schedule()
选出 node在上一节中scheduleOne()
通过调用 sched.Algorithm.Schedule()
来执行预选与优选算法处理:
scheduleResult, err := sched.Algorithm.Schedule(schedulingCycleCtx, fwk, state, pod)
Schedule()方法属于 ScheduleAlgorithm 接口的一个方法实现。ScheduleAlgorithm 是一个知道如何将 pods 调度到机器上的事物实现的接口。在 1.16 版本中 ScheduleAlgorithm 有四个方法——Schedule()
、Preempt()
、Predicates()
:Prioritizers()
,现在则是Schedule()
、Extenders()
在目前的代码中进行优化,保证了程序的安全性。代码中有一个 todo,目前的
名字已经不太符合这个接口所做的工作。
kubernetes/pkg/scheduler/core/generic_scheduler.go 61
type ScheduleAlgorithm interface {
Schedule(context.Context, framework.Framework, *framework.CycleState, *v1.Pod) (scheduleResult ScheduleResult, err error)
// 扩展器返回扩展器配置的一个片断。这是为测试而暴露的。
Extenders() []framework.Extender
}
点击查看 Scheduler()的具体实现,发现它是由 genericScheduler 来进行实现的。
kubernetes/pkg/scheduler/core/generic_scheduler.go 97
func (g *genericScheduler) Schedule(ctx context.Context, fwk framework.Framework, state *framework.CycleState, pod *v1.Pod) (result ScheduleResult, err error) {
trace := utiltrace.New("Scheduling", utiltrace.Field{Key: "namespace", Value: pod.Namespace}, utiltrace.Field{Key: "name", Value: pod.Name})
defer trace.LogIfLong(100 * time.Millisecond)
// 1.快照 node 信息,每次调度 pod 时都会获取一次快照
if err := g.snapshot(); err != nil {
return result, err
}
trace.Step("Snapshotting scheduler cache and node infos done")
if g.nodeInfoSnapshot.NumNodes() == 0 {
return result, ErrNoNodesAvailable
}
// 2.Predict阶段:找到所有满足调度条件的节点feasibleNodes,不满足的就直接过滤
feasibleNodes, diagnosis, err := g.findNodesThatFitPod(ctx, fwk, state, pod)
if err != nil {
return result, err
}
trace.Step("Computing predicates done")
// 3.预选后没有合适的 node 直接返回
if len(feasibleNodes) == 0 {
return result, &framework.FitError{
Pod: pod,
NumAllNodes: g.nodeInfoSnapshot.NumNodes(),
Diagnosis: diagnosis,
}
}
// 4.当预选之后只剩下一个node,就使用它
if len(feasibleNodes) == 1 {
return ScheduleResult{
SuggestedHost: feasibleNodes[0].Name,
EvaluatedNodes: 1 + len(diagnosis.NodeToStatusMap),
FeasibleNodes: 1,
}, nil
}
// 5.Priority阶段:执行优选算法,获取打分之后的node列表
priorityList, err := g.prioritizeNodes(ctx, fwk, state, pod, feasibleNodes)
if err != nil {
return result, err
}
// 6.根据打分选择分数最高的node
host, err := g.selectHost(priorityList)
trace.Step("Prioritizing done")
return ScheduleResult{
SuggestedHost: host,
EvaluatedNodes: len(feasibleNodes) + len(diagnosis.NodeToStatusMap),
FeasibleNodes: len(feasibleNodes),
}, err
}
流程图如图所示:
至此整个 Scheduler 分配 node 节点给 pod 的调度策略的基本流程介绍完毕。
在本章节中,首先对 Kube-scheduler 进行了介绍。它在整个 k8s 的系统里,启承上启下的中药作用,是核心组件之一。它的目的就是为每一个 pod 选择一个合适的 node,整体流程可以概括为五步:
wait.UntilWithContext()
这个函数中,一直调用ScheduleOne()
进行 pod 的调度分配策略。sched.schedule()
为 pod 选择一个合适的 node,如果没有合适的 node,则触发抢占的操作,最后提进行绑定,请求 apiserver 异步处理最终的绑定操作,写入到 etcd,其核心则是一系列调度算法的设计与执行。预选顾名思义就是从当前集群中的所有的 node 中进行过滤,选出符合当前 pod 运行的 nodes。预选的核心流程是通过findNodesThatFit
来完成,其返回预选结果供优选流程使用。预选算法的主要逻辑如图所示:
kubernetes/pkg/scheduler/core/generic_scheduler.go 223
// 根据prefilter插件和extender过滤节点以找到适合 pod 的节点。
func (g *genericScheduler) findNodesThatFitPod(ctx context.Context, fwk framework.Framework, state *framework.CycleState, pod *v1.Pod) ([]*v1.Node, framework.Diagnosis, error) {
// prefilter插件用于预处理 Pod 的相关信息,或者检查集群或 Pod 必须满足的某些条件。
s := fwk.RunPreFilterPlugins(ctx, state, pod)
……
// 查找能够满足filter过滤插件的节点,返回结果有可能是0,1,N
feasibleNodes, err := g.findNodesThatPassFilters(ctx, fwk, state, pod, diagnosis, allNodes)
// 查找能够满足Extenders过滤插件的节点,返回结果有可能是0,1,N
feasibleNodes, err = g.findNodesThatPassExtenders(pod, feasibleNodes, diagnosis.NodeToStatusMap)
return feasibleNodes, diagnosis, nil
}
findNodesThatPassFilters
方法过滤掉不符合条件的 node。这样就能设定最多需要检查的节点数,作为预选节点数组的容量,避免总结点过多影响效率。findNodesThatPassExtenders
函数,它是 kubernets 留给用户的外部扩展方式,暂且不表。findNodesThatPassFilters
查找适合过滤器插件的节点,在这个方法中首先会根据numFeasibleNodesToFind
方法选择参与调度的节点的数量,调用Parallelizer().Until
方法开启 16 个线程来调用checkNode
方法寻找合适的节点。判别节点合适的方式函数为checkNode()
,函数中会对节点进行两次检查,确保所有的节点都有相同的机会被选择。
kubernetes/pkg/scheduler/core/generic_scheduler.go 274
func (g *genericScheduler) findNodesThatPassFilters(ctx context.Context,fwk framework.Framework,state *framework.CycleState,pod *v1.Pod,diagnosis framework.Diagnosis,nodes []*framework.NodeInfo) ([]*v1.Node, error) {……}
// 根据集群节点数量选择参与调度的节点的数量
numNodesToFind := g.numFeasibleNodesToFind(int32(len(nodes)))
// 初始化一个大小和numNodesToFind一样的数组,用来存放node节点
feasibleNodes := make([]*v1.Node, numNodesToFind)
……
checkNode := func(i int) {
// 我们从上一个调度周期中停止的地方开始检查节点,这是为了确保所有节点都有相同的机会在 pod 中被检查
nodeInfo := nodes[(g.nextStartNodeIndex+i)%len(nodes)]
status := fwk.RunFilterPluginsWithNominatedPods(ctx, state, pod, nodeInfo)
if status.Code() == framework.Error {
errCh.SendErrorWithCancel(status.AsError(), cancel)
return
}
//如果该节点合适,那么放入到feasibleNodes列表中
if status.IsSuccess() {……}
}
……
// 开启N个线程并行寻找符合条件的node节点,数量等于feasibleNodes。一旦找到配置的可行节点数,就停止搜索更多节点。
fwk.Parallelizer().Until(ctx, len(nodes), checkNode)
processedNodes := int(feasibleNodesLen) + len(diagnosis.NodeToStatusMap)
//设置下次开始寻找node的位置
g.nextStartNodeIndex = (g.nextStartNodeIndex + processedNodes) % len(nodes)
// 合并返回结果
feasibleNodes = feasibleNodes[:feasibleNodesLen]
return feasibleNodes, nil
}
在整个函数调用的过程中,有个很重要的函数——checkNode()
会被传入函数,进行每个 node 节点的判断。具体更深入的细节将会在 3.1.2 节进行介绍。现在根据这个函数的定义可以看出,RunFilterPluginsWithNominatedPods
会判断当前的 node 是否符合要求。如果当前的 node 符合要求,就讲当前的 node 加入预选节点的数组中(feasibleNodes
),如果不符合要求,那么就加入到失败的数组中,并且记录原因。
numFeasibleNodesToFind 返回找到的可行节点的数量,调度程序停止搜索更多可行节点。算法的具体逻辑如下图所示:
minFeasibleNodesToFind
(默认值为 100),那么全部节点参与调度。percentageOfNodesToScore
参数值是一个集群中所有节点的百分比,范围是 1 和 100 之间,0 表示不启用。如果集群节点数大于 100,那么就会根据这个值来计算让合适的节点数参与调度。percentageOfNodesToScore
会默认设置为 10%,也就是 500 个节点参与调度。因为如果一个 5000 节点的集群来进行调度的话,不进行控制时,每个 pod 调度都需要尝试 5000 次的节点预选过程时非常消耗资源的。minFeasibleNodesToFind
,那么还是要返回最小节点的数目。kubernetes/pkg/scheduler/core/generic_scheduler.go 179
func (g *genericScheduler) numFeasibleNodesToFind(numAllNodes int32) (numNodes int32) {
// 对于一个小于minFeasibleNodesToFind(100)的节点,全部节点参与调度
// percentageOfNodesToScore参数值是一个集群中所有节点的百分比,范围是1和100之间,0表示不启用,如果大于100,就是全量取样
// 这两种情况都是直接便利整个集群中的所有节点
if numAllNodes < minFeasibleNodesToFind || g.percentageOfNodesToScore >= 100 {
return numAllNodes
}
adaptivePercentage := g.percentageOfNodesToScore
//当numAllNodes大于100时,如果没有设置percentageOfNodesToScore,那么这里需要计算出一个值
if adaptivePercentage <= 0 {
basePercentageOfNodesToScore := int32(50)
adaptivePercentage = basePercentageOfNodesToScore - numAllNodes/125
if adaptivePercentage < minFeasibleNodesPercentageToFind {
adaptivePercentage = minFeasibleNodesPercentageToFind
}
}
// 正常取样计算,比如numAllNodes为5000,而adaptivePercentage为50%
// 则numNodes=50000*0.5/100=250
numNodes = numAllNodes * adaptivePercentage / 100
// 也不能太小,不能低于minFeasibleNodesToFind的值
if numNodes < minFeasibleNodesToFind {
return minFeasibleNodesToFind
}
return numNodes
}
并行取样主要通过调用工作队列的ParallelizeUntil
函数来启动 N 个 goroutine 来进行并行取样,并通过 ctx 来协调退出。选取节点的规则由函数 checkNode 来定义,checkNode
里面使用RunFilterPluginsWithNominatedPods
筛选出合适的节点。
在 k8s 中经过调度器调度后的 pod 结果会放入到 SchedulingQueue 中进行暂存,这些 pod 未来可能会经过后续调度流程运行在提议的 node 上,也可能因为某些原因导致最终没有运行,而预选流程为了减少后续因为调度冲突,则会在进行预选的时候,将这部分 pod 考虑进去。如果在这些 pod 存在的情况下,node 可以满足当前 pod 的筛选条件,则可以去除被提议的 pod 再进行筛选。
在抢占的情况下我们会运行两次过滤器。如果节点有大于或等于优先级的被提名的 pod,我们在这些 pod 被添加到 PreFilter 状态和 nodeInfo 时运行它们。如果所有的过滤器在这一次都成功了,我们在这些被提名的 pod 没有被添加时再运行它们。
kubernetes/pkg/scheduler/framework/runtime/framework.go 650
func (f *frameworkImpl) RunFilterPluginsWithNominatedPods(ctx context.Context, state *framework.CycleState, pod *v1.Pod, info *framework.NodeInfo) *framework.Status {
var status *framework.Status
// podsAdded主要用于标识当前是否有提议的pod如果没有提议的pod则就不需要再进行一轮筛选了。
podsAdded := false
//待检查的 Node 是一个即将被抢占的节点,调度器就会对这个Node用同样的 Predicates 算法运行两遍。
for i := 0; i < 2; i++ {
stateToUse := state
nodeInfoToUse := info
//处理优先级pod的逻辑
if i == 0 {
var err error
//查找是否有优先级大于或等于当前pod的NominatedPods,然后加入到nodeInfoToUse中
podsAdded, stateToUse, nodeInfoToUse, err = addNominatedPods(ctx, f, pod, state, info)
// 如果第一轮筛选出错,则不会进行第二轮筛选
if err != nil {
return framework.AsStatus(err)
}
} else if !podsAdded || !status.IsSuccess() {
break
}
//运行过滤器检查该pod是否能运行在该节点上
statusMap := f.RunFilterPlugins(ctx, stateToUse, pod, nodeInfoToUse)
status = statusMap.Merge()
if !status.IsSuccess() && !status.IsUnschedulable() {
return status
}
}
return status
}
这个方法用来检测 node 是否能通过过滤器,此方法会在调度 Schedule 和抢占 Preempt 的时被调用,如果在 Schedule 时被调用,那么会测试 node,能否可以让所有存在的 pod 以及更高优先级的 pod 在该 node 上运行。如果在抢占时被调用,那么我们首先要移除抢占失败的 pod,添加将要抢占的 pod。
RunFilterPlugins 会运行过滤器,过滤器总共有这些:nodeunschedulable, noderesources, nodename, nodeports, nodeaffinity, volumerestrictions, tainttoleration, nodevolumelimits, nodevolumelimits, nodevolumelimits, nodevolumelimits, volumebinding, volumezone, podtopologyspread, interpodaffinity。这里就不详细赘述。
至此关于预选模式的调度算法的执行过程已经分析完毕。
优选阶段通过分离计算对象来实现多个 node 和多种算法的并行计算,并且通过基于二级索引来设计最终的存储结果,从而达到整个计算过程中的无锁设计,同时为了保证分配的随机性,针对同等优先级的采用了随机的方式来进行最终节点的分配。这个思路很值得借鉴。
在上文中,我们提到在优化过程是先通过 prioritizeNodes 获得 priorityList,然后再通过 selectHost 函数获得得分最高的 Node,返回结果。
prioritizeNodes
在 prioritizeNodes 函数中会将需要调度的 Pod 列表和 Node 列表传入各种优选算法进行打分排序,最终整合成结果集 priorityList。priorityList 是一个 framework.NodeScoreList 的结构体,结构如下面的代码所示:
// NodeScoreList 声明一个节点列表及节点分数
type NodeScoreList []NodeScore
// NodeScore 节点和节点分数的结构体
type NodeScore struct {
Name string
Score int64
}
prioritizeNodes 通过运行评分插件对节点进行优先排序,这些插件从 RunScorePlugins()的调用中为每个节点返回一个分数。每个插件的分数和 Extender 的分数加在一起,成为该节点的分数。整个流程如图所示:
由于 prioritizeNodes 的逻辑太长,这里将他们分四个部分,如下所示:
func (g *genericScheduler) prioritizeNodes(ctx context.Context, fwk framework.Framework,state *framework.CycleState, pod *v1.Pod,nodes []*v1.Node,) (framework.NodeScoreList, error) {
// 如果没有提供优先级配置(即没有Extender也没有ScorePlugins),则所有节点的得分为 1。这是生成所需格式的优先级列表所必需的
if len(g.extenders) == 0 && !fwk.HasScorePlugins() {
result := make(framework.NodeScoreList, 0, len(nodes))
for i := range nodes {
result = append(result, framework.NodeScore{
Name: nodes[i].Name,
Score: 1,
})
}
return result, nil
}
// 运行PreScore插件,准备评分数据
preScoreStatus := fwk.RunPreScorePlugins(ctx, state, pod, nodes)
if !preScoreStatus.IsSuccess() {
return nil, preScoreStatus.AsError()
}
// 运行Score插件对Node进行评分,此处需要知道的是scoresMap的类型是map[string][]NodeScore。scoresMap的key是插件名字,value是该插件对所有Node的评分
scoresMap, scoreStatus := fwk.RunScorePlugins(ctx, state, pod, nodes)
if !scoreStatus.IsSuccess() {
return nil, scoreStatus.AsError()
}
// result用于汇总所有分数
result := make(framework.NodeScoreList, 0, len(nodes))
// 将分数按照node的维度进行汇总,循环执行len(nodes)次
for i := range nodes {
// 先在result中塞满所有node的Name,Score初始化为0;
result = append(result, framework.NodeScore{Name: nodes[i].Name, Score: 0})
// 执行了多少个scoresMap就有多少个Score,所以这里遍历len(scoresMap)次;
for j := range scoresMap {
// 每个算法对应第i个node的结果分值加权后累加;
result[i].Score += scoresMap[j][i].Score
}
}
Score 插件中获取的分数会直接记录在 result[i].Score,result 就是最终返回结果的 priorityList。
RunScorePlugins
里面分别调用 parallelize.Until 方法跑三次来进行打分:
第一次会调用runScorePlugin
方法,里面会调用 getDefaultConfig 里面设置的 score 的 Plugin 来进行打分;
第二次会调用runScoreExtension
方法,里面会调用 Plugin 的NormalizeScore
方法,用来保证分数必须是 0 到 100 之间,不是每一个 plugin 都会实现 NormalizeScore 方法。
第三次会调用遍历所有的scorePlugins
,并对对应的算出的来的分数乘以一个权重。
打分的 plugin 共有:noderesources, imagelocality, interpodaffinity, noderesources, nodeaffinity, nodepreferavoidpods, podtopologyspread, tainttoleration
// 如果配置了Extender,还要调用Extender对Node评分并累加到result中
if len(g.extenders) != 0 && nodes != nil {
// 因为要多协程并发调用Extender并统计分数,所以需要锁来互斥写入Node分数
var mu sync.Mutex
var wg sync.WaitGroup
// combinedScores的key是Node名字,value是Node评分
combinedScores := make(map[string]int64, len(nodes))
for i := range g.extenders {
// 如果Extender不管理Pod申请的资源则跳过
if !g.extenders[i].IsInterested(pod) {
continue
}
// 启动协程调用Extender对所有Node评分。
wg.Add(1)
go func(extIndex int) {
defer func() {
wg.Done()
}()
// 调用Extender对Node进行评分
prioritizedList, weight, err := g.extenders[extIndex].Prioritize(pod, nodes)
if err != nil {
//扩展器的优先级错误可以忽略,让k8s/其他扩展器确定优先级。
return
}
mu.Lock()
for i := range *prioritizedList {
host, score := (*prioritizedList)[i].Host, (*prioritizedList)[i].Score
// Extender的权重是通过Prioritize()返回的,其实该权重是人工配置的,只是通过Prioritize()返回使用上更方便。
// 合并后的评分是每个Extender对Node评分乘以权重的累加和
combinedScores[host] += score * weight
}
mu.Unlock()
}(i)
}
// 等待所有的go routines结束,调用时间取决于最慢的Extender。
wg.Wait()
Extender 这里有几个很有趣的设置
combinedScores
的过程中上了互斥锁。 for i := range result {
// 最终Node的评分是所有ScorePlugin分数总和+所有Extender分数总和
// 此处标准化了Extender的评分,使其范围与ScorePlugin一致,否则二者没法累加在一起。
result[i].Score += combinedScores[result[i].Name] * (framework.MaxNodeScore / extenderv1.MaxExtenderPriority)
}
}
return result, nil
}
优选算法由一系列的 PriorityConfig(也就是 PriorityConfig 数组)组成,每个 Config 代表了一个算法,Config 描述了权重 Weight、Function(一种优选算法函数类型)。需要调度的 Pod 分别对每个合适的 Node(N)执行每个优选算法(A)进行打分,最后得到一个二维数组,元素分别为 A1N1,A1N2,A1N3… ,行代表一个算法对应不同的 Node 计算得到的分值,列代表同一个 Node 对应不同算法的分值:
N1 | N2 | N3 | |
---|---|---|---|
A1 | { Name:“node1”,Score:5,PriorityConfig:{…weight:1}} | { Name:“node2”,Score:3,PriorityConfig:{…weight:1}} | { Name:“node3”,Score:1,PriorityConfig:{…weight:1}} |
A2 | { Name:“node1”,Score:6,PriorityConfig:{…weight:1}} | { Name:“node2”,Score:2,PriorityConfig:{…weight:1}} | { Name:“node3”,Score:3,PriorityConfig:{…weight:1}} |
A3 | { Name:“node1”,Score:4,PriorityConfig:{…weight:1}} | { Name:“node2”,Score:7,PriorityConfig:{…weight:1.}} | { Name:“node3”,Score:2,PriorityConfig:{…weight:1}} |
最后将结果合并(Combine)成一维数组 HostPriorityList :HostPriorityList =[{ Name:"node1",Score:15},{ Name:"node2",Score:12},{ Name:"node3",Score:6}]
这样就完成了对每个 Node 进行优选算法打分的流程。
Combine 的过程非常简单,只需要将 Node 名字相同的分数进行加权求和统计即可。
最终得到一维数组 HostPriorityList,也就是前面提到的 HostPriority 结构体的集合。就这样实现了为每个 Node 的打分 Priority 优选过程。
selectHost
选出得分最高的 NodepriorityList 数组保存了每个 Node 的名字和它对应的分数,最后通过selectHost
函数选出分数最高的 Node 对 Pod 进行绑定和调度。selectHost
通过传入的 priorityList,然后以随机筛选的的方式从得分最高的节点们中挑选一个。
这里的随机筛选是指的当多个 host 优先级相同的时候,会有一定的概率用当前的 node 替换之前的优先级相等的 node(到目前为止的优先级最高的 node), 其主要通过`cntOfMaxScore
和rand.Intn(cntOfMaxScore)
来进行实现。
// selectHost()根据所有可行Node的评分找到最优的Node
func (g *genericScheduler) selectHost(nodeScoreList framework.NodeScoreList) (string, error) {
// 没有可行Node的评分,返回错误
if len(nodeScoreList) == 0 {
return "", fmt.Errorf("empty priorityList")
}
// 在nodeScoreList中找到分数最高的Node,初始化第0个Node分数最高
maxScore := nodeScoreList[0].Score
selected := nodeScoreList[0].Name
// 如果最高分数相同,先统计数量(cntOfMaxScore)
cntOfMaxScore := 1
for _, ns := range nodeScoreList[1:] {
if ns.Score > maxScore {
maxScore = ns.Score
selected = ns.Name
cntOfMaxScore = 1
} else if ns.Score == maxScore {
// 分数相同就累计数量
cntOfMaxScore++
if rand.Intn(cntOfMaxScore) == 0 {
//以1/cntOfMaxScore的概率成为最优Node
selected = ns.Name
}
}
}
return selected, nil
}
只有同时满足 FilterPlugin 和 Extender 的过滤条件的 Node 才是可行 Node,调度算法优先用 FilterPlugin 过滤,然后在用 Extender 过滤,这样可以尽量减少传给 Extender 的 Node 数量;调度算法为待调度的 Pod 对每个可行 Node(过滤通过)进行评分,评分方法是:
其中 f(x)和 g(x)是标准化分数函数,w 为权重;分数最高的 Node 为最优候选 Node,当有多个 Node 都为最高分数时,每个 Node 有 1/n 的概率成最优 Node;调度算法并不是对调度框架和调度插件再抽象和封装,只是对调度周期从 PreFilter 到 Score 的过程的一种抽象,其中 PostFilter 不在调度算法抽象范围内。因为 PostFilter 与过滤无关,是用来实现抢占的扩展点;
Scheduler 调度器,在 k8s 的整个代码中处于一个承上启下的作用。了解 Scheduler 在哪个过程中发挥作用,更能够理解它的重要性。
本文第二章,主要对于 kube-scheduler v1.21 的调度流程进行了分析,但由于选择的议题实在是太大,这里这对正常流程中的调度进行源码的解析,其中有大量的细节都暂未提及,包括抢占调度、framework、extender 等实现。通过源码阅读可以发现,Pod 的调度是通过一个队列 SchedulingQueue 异步工作的,队列对 pod 时间进行监听,并且进行调度流程。单个 pod 的调度主要分为 3 个步骤:
在接受到命令之后,程序会现在scheduler.New()
初始化 scheduler 结构体,然后通过 Run()
函数启动调度的主逻辑,唤醒 sched.Run()。在 sched.Run()中会一直监听和调度,通过队列的方式给 pod 分配合适的 node。scheduleOne()
里面是整个分配 pod 调度过程的主要逻辑,因为篇幅有限,这里只对 sched.Algorithm.Schedule()
进行了深入的了解。bind 和后续的操作就停留在scheduleOne()
这里没有再进行深入。
因篇幅有限,以及个人的兴趣导向,在正常流程介绍完毕之后第三章对正常调度过程中的优选和预选策略再次进行深入的代码阅读。以期能够对正常调度的细节有更好的把握。如果时间可以再多些,可以更细致到对具体的调度算法进行分析,这里因为篇幅有限,预选的部分就只介绍了根据 predict 过程中的 NameNode 函数。
- END -