前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >k8s 集群容量分析工具 - kluster-capacity

k8s 集群容量分析工具 - kluster-capacity

作者头像
李鹤
发布2023-03-06 11:14:01
4240
发布2023-03-06 11:14:01
举报
文章被收录于专栏:k-cloud-labs

背景

容器平台的三个价值:稳定性、效率、成本,都离不开容量管理。容量管理是 Kubernetes 集群管理中非常重要的一部分。它可以确保系统中的资源得到合理的分配和使用,避免了因资源不足或浪费导致的系统运行异常或效率低下的问题。通过容量管理,可以更好地控制和优化系统资源的利用,保证 Kubernetes 集群的稳定性和可靠性。容量管理还可以帮助管理员对系统进行更好的规划和预测,避免因资源不足而需要紧急扩容的情况出现,从而提高了系统的可维护性和可靠性。

面临的问题

K8s 集群管理员或多或少会被如下问题所困扰:

  • 不清楚当前集群资源使用或者剩余容量处于什么水位;
  • 不清楚当前集群资源浪费情况如何;
  • 不清楚当前集群资源碎片程度如何;
  • 不清楚如何设置调度策略配置值以提升资源利用效率;

资源是一个典型的可量化的指标,上述问题均可以做到可量化,我们缺少的只是一个好用的工具。

项目介绍

kluster-capacity 旨在通过模拟线上真实调度器的能力来解决上述问题,目前已经支持三个能力:容量评估,调度模拟,集群压缩。

容量评估

介绍

随着集群中节点上新的 Pod 被调度,消耗的资源越来越多。监控集群中可用的资源非常重要,因为运维人员可以及时增加当前的资源,以免所有资源都耗尽。或者,采取不同的步骤来增加可用资源。

集群容量包括单个集群节点的容量。容量涵盖了 CPU、内存、磁盘空间和其他资源。

整体剩余可分配容量是一个估计值。目标是分析剩余可分配的资源并估计可用容量,即可以在集群中安排给定资源需求的 Pod 实例数量。

增强

以下是对原集群容量的一些增强功能:

  • 支持直接从集群中使用现有的 Pod 作为 Pod 模板。
  • 支持针对不同的 Pod 模板进行批量模拟。

运行

1 2 3 4

# 直接使用指定的 pod 模板 $ ./kluster-capacity ce --kubeconfig <path to kubeconfig> --schedulerconfig= <path to schedulerconfig> --pods-from-template <path to pod templates> # 使用集群中指定的 pod 作为模板 $ ./kluster-capacity ce --kubeconfig <path to kubeconfig> --schedulerconfig= <path to schedulerconfig> --pods-from-cluster <namespace/name key of the pod>

更多运行参数及功能,请执行如下命令:

1

$ ./kluster-capacity ce --help

演示

假设集群运行有 4 个节点和 1 个主节点,每个节点有 2 个 CPU 和 4GB 内存。而每个 Pod 所需的资源为 150m CPU 和 100Mi 内存。

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18

$ ./kluster-capacity ce --kubeconfig <path to kubeconfig> --schedulerconfig= <path to schedulerconfig> --pods-from-template <path to pod templates> --verbose Pod requirements: - cpu: 150m - memory: 100Mi The cluster can schedule 52 instance(s) of the pod. Termination reason: FailedScheduling: pod (small-pod-52) failed to fit in any node fit failure on node (kube-node-1): Insufficient cpu fit failure on node (kube-node-4): Insufficient cpu fit failure on node (kube-node-2): Insufficient cpu fit failure on node (kube-node-3): Insufficient cpu Pod distribution among nodes: - kube-node-1: 13 instance(s) - kube-node-4: 13 instance(s) - kube-node-2: 13 instance(s) - kube-node-3: 13 instance(s)

随着集群中运行的 pod 数量增加,再次运行分析时,可调度的 pod 数量也会减少。

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18

$ ./kluster-capacity ce --kubeconfig <path to kubeconfig> --schedulerconfig= <path to schedulerconfig> --pods-from-template <path to pod templates> --verbose Pod requirements: - cpu: 150m - memory: 100Mi The cluster can schedule 46 instance(s) of the pod. Termination reason: FailedScheduling: pod (small-pod-46) failed to fit in any node fit failure on node (kube-node-1): Insufficient cpu fit failure on node (kube-node-4): Insufficient cpu fit failure on node (kube-node-2): Insufficient cpu fit failure on node (kube-node-3): Insufficient cpu Pod distribution among nodes: - kube-node-1: 11 instance(s) - kube-node-4: 12 instance(s) - kube-node-2: 11 instance(s) - kube-node-3: 12 instance(s)

输出格式

ce 命令有一个 --output (-o) 标志,可以将其输出格式化为 json 或 yaml。

1

$ ./kluster-capacity ce --kubeconfig <path to kubeconfig> --schedulerconfig= <path to schedulerconfig> --pods-from-template <path to pod templates> -o json|yaml

调度模拟

介绍

调度器模拟以当前集群中的所有 node、pod 等相关资源为输入,模拟从没有 pod 到创建并调度所有 pod 的过程。这可以用来计算集群压缩率比,以评估调度效果或衡量调度算法的质量。

与集群压缩相比,其结果更加激进和理想化。

运行

1

./kluster-capacity ss --kubeconfig <path to kubeconfig> --schedulerconfig= <path to schedulerconfig>

更多运行参数及功能,请执行如下命令:

1

$ ./kluster-capacity ss --help

它支持两种终止条件:AllSucceedAllScheduled。前者是指所有pod调度成功后程序结束,后者是指所有 pod 至少被调度一次后程序退出。默认值为 AllSucceed。可以使用 --exit-condition 标志设置退出条件。

演示

假设集群运行有 4 个节点和 1 个主节点,每个节点有 2 个 CPU 和 4GB 内存。有 40 个资源需求是 100m CPU 和 200Mi 内存的 Pod 需要被调度。

如果调度器使用 LeastAllocated 策略,调度结果可能如下所示:

1 2 3 4 5 6 7 8

$ ./kluster-capacity ss --kubeconfig <path to kubeconfig> --schedulerconfig= <path to schedulerconfig> Termination reason: AllSucceed: 40 pod(s) have been scheduled successfully. Pod distribution among nodes: - kube-node-1: 10 instance(s) - kube-node-2: 10 instance(s) - kube-node-3: 10 instance(s) - kube-node-4: 10 instance(s)

如果调整调度器使用 MostAllocated 策略,调度结果可能如下所示:

1 2 3 4 5 6

$ ./kluster-capacity ss --kubeconfig <path to kubeconfig> --schedulerconfig= <path to schedulerconfig> Termination reason: AllSucceed: 40 pod(s) have been scheduled successfully. Pod distribution among nodes: - kube-node-1: 20 instance(s) - kube-node-2: 20 instance(s)

可以分析上面的调度结果来评估调度策略的有效性和集群容量压缩比。例如,上面的结果表示集群压缩比为2,这意味着在理想情况下有50%的资源浪费。

集群压缩

介绍

集群压缩以集群的当前状态,包括所有 node、pod 和其他相关资源作为输入,模拟通过移除节点来压缩集群的过程。它可用于计算集群的压缩比,这是衡量资源利用效率的指标。

与模拟调度相比,集群压缩的结果通常更显示,可操作性更强。

运行

1

./kluster-capacity cc --kubeconfig <path to kubeconfig> --schedulerconfig= <path to schedulerconfig> --verbose

更多运行参数及功能,请执行如下命令:

1

$ ./kluster-capacity cc --help

演示

假设集群运行有 4 个节点和 1 个主节点,每个节点有 2 个 CPU 和 4GB 内存。运行有 40 个资源需求是 100m CPU 和 200Mi 内存的 Pod。

1 2 3 4 5 6 7 8

./kluster-capacity cc --kubeconfig <path to kubeconfig> --schedulerconfig= <path to schedulerconfig> --verbose 2 node(s) in the cluster can be scaled down. Termination reason: FailedSelectNode: could not find a node that satisfies the condition, 1 master node(s); 2 node(s) can't be scale down because of insufficient resource in other nodes; nodes selected to be scaled down: - kube-node-1 - kube-node-3

上面的结果表明,给定 40 个 pod 的资源需求,在保证所有 pod 都能被调度的情况下,集群可以去掉 2 个节点,压缩比为 2,也就是有 50% 的资源浪费。

演进

当前已经支持上述三种能力,后续会继续完善其他容量、资源管理相关能力,如

  • 基于 snapshot 的模拟
  • 资源碎片分析

帮助我们基于集群历史某一时刻的状态来进行相关模拟操作,以及分析资源碎片情况等,欢迎体验并提出您的宝贵意见,谢谢!

我的博客即将同步至腾讯云开发者社区,邀请大家一同入驻:https://cloud.tencent.com/developer/support-plan?invite_code=ue85q0jbdgn2

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2023-02-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 背景
  • 面临的问题
  • 项目介绍
    • 容量评估
      • 介绍
      • 增强
      • 运行
      • 演示
      • 输出格式
    • 调度模拟
      • 介绍
      • 运行
      • 演示
    • 集群压缩
      • 介绍
      • 运行
      • 演示
    • 演进
    相关产品与服务
    容器服务
    腾讯云容器服务(Tencent Kubernetes Engine, TKE)基于原生 kubernetes 提供以容器为核心的、高度可扩展的高性能容器管理服务,覆盖 Serverless、边缘计算、分布式云等多种业务部署场景,业内首创单个集群兼容多种计算节点的容器资源管理模式。同时产品作为云原生 Finops 领先布道者,主导开源项目Crane,全面助力客户实现资源优化、成本控制。
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档