创建集群(新版)

最近更新时间:2025-05-21 14:34:42

我的收藏
本文介绍如何使用新版容器服务控制台快速创建标准 TKE 集群,您可在集群创建完毕后再创建 Worker Node。

前提条件

在创建集群前,您需要完成以下工作:
当您首次登录 容器服务控制台 时,需对当前账号授予腾讯云容器服务操作云服务器 CVM、负载均衡 CLB、云硬盘 CBS 等云资源的权限。详情请参见 服务授权
如果要创建网络类型为私有网络的容器集群,需要在目标地域 创建一个私有网络,并且在私有网络下的目标可用区 创建一个子网
集群创建过程中将使用私有网络、子网、安全组等多种资源。资源所在地域具备一定的配额限制,详情请参见 购买集群配额限制

通过控制台创建集群

1. 登录 容器服务控制台,选择左侧导航栏中的 集群
2. 单击集群列表上方的新建
3. 在集群类型中,选择标准集群,单击创建

1. (必填)填写集群信息

集群信息页面,设置集群的基础配置和网络配置。

基础配置核心参数说明


参数名称
使用说明
集群名称
输入要创建的集群名称,不超过50个字符。
Master&Etcd 维护
平台管理:由腾讯云专业团队维护集群控制面组件,需支付一定的管理费用,详情请参见 集群管理费用
自行维护(已停止新建):需用户自行购买、维护和管理控制面资源,平台不提供服务保障。
集群规格
根据业务实际情况选择合适的集群规格,详情请参见 如何选择集群规格。集群规格可手动调整,或者通过自动升配能力自动调整。
所在地域
处在不同地域的云产品内网不通,购买后不能更换。建议选择靠近您客户的地域,以降低访问延时、提高下载速度。详情请参见 地域和可用区
Kubernetes 版本
推荐您选择最新版本,版本支持范围可参考 TKE Kubernetes Revision 版本历史,版本维护规则请参见 TKE Kubernetes 版本维护机制
运行时组件
推荐您选择 Containerd 支持的最新版本。(Kubernetes 1.24通过 Dockershim 对 Docker 的支持已移除,TKE 新建节点的容器运行时仅支持 Containerd 1.6.9。)
操作系统
TKE 提供了包含 TencentOS、Ubuntu、CentOS 在内的多款公共镜像,请根据实际情况进行选择,详情请参见 TKE 支持的公共镜像列表
腾讯云标签
为集群绑定标签后可实现资源的分类管理,在集群内创建的云资源会默认继承集群标签。
高级设置
节点 hostname 命名模式:主机和节点命名规则,支持设置“自动命名(默认为内网 IP)”和“手动命名”。
设置 kubernetes 自定义组件参数:设置和管理 Kubernetes 控制面组件(APIServer、KubeControllerManager、KubeScheduler)的参数。详情请参见 自定义 Kubernetes 组件启动参数
新增资源所属项目:根据实际需求进行选择,新增的资源将会自动分配到该项目下。详情请参见 集群新增资源所属项目说明
删除保护:开启后可阻止通过控制台或云 API 误删除本集群。
数据加密:开启可对 ETCD 中存储的 Secret 数据进行加密。

网络配置核心参数说明


参数名称
使用说明
VPC 网络
为集群内节点选择一个私有网络,详情请参见 VPC 产品概述
容器网络插件
CNI (Container Network Interface) 网络插件是一种用于 Kubernetes 集群的网络解决方案,旨在提供灵活、可扩展和高性能的网络连接。CNI TKE 网络插件遵循 CNI 规范,允许 Kubernetes 集群与各种网络解决方案无缝集成,以满足不同的业务需求和性能要求。TKE 提供了3种网络 CNI 插件方案:VPC-CNI、Global Router 和 Cilium-Overlay,详情请参见 如何选择容器网络模式
注意:
TKE 推荐用户在公有云场景下使用 “VPC-CNI” 网络方案,在注册节点场景下使用 “Cilium-Overlay” 网络方案。
VPC-CNI 网络方案
TKE 默认推荐用户使用VPC-CNI 方案。VPC-CNI 网络方案是 TKE 基于腾讯云 VPC 实现的容器网络接口 CNI,可以将 VPC 原生的弹性网卡直接分配给 Pod,实现 Pod 之间的网络互联,适用于对时延有较高需求的场景。该网络模式下,容器与节点分布在同一网络平面,容器 IP 为 IPAMD 组件分配的弹性网卡 IP。详情请参见 VPC-CNI 方案介绍
Global Router 网络方案 Global Router 网络方案是 TKE 基于腾讯云 VPC 的全局路由能力实现的容器网络接口 CNI。其中 Pod CIDR 网段独立于 VPC 的 CIDR 网段,不同节点的 Pod CIDR 信息会通过全局路由方式下发到 VPC,实现跨节点 Pod 的互访。详情请参见 Global Router 方案介绍
Cilium-Overlay 网络方案 Cilium-Overlay 网络方案是 TKE 基于 Cilium VXLan 实现的容器网络插件,实现分布式云场景中,注册节点添加到 TKE 集群的网络管理。详情请参见 Cilium-Overlay 方案介绍
高级设置
Kube-proxy 代理模式:可选择 iptables 或 ipvs。ipvs 适用于将在集群中运行大规模服务的场景,开启后不能关闭。详情请参见 集群启用 IPVS

2. (选填)填写组件配置

说明:
所选组件需待节点资源就绪后才能正常部署,您也可以跳过当前步骤,等待集群创建初始化完毕后在集群内通过组件管理页安装,详情请参见 组件管理
组件配置页面,设置集群的组件和云原生服务,如下图所示:


云原生服务参数说明

参数名称
使用说明
Prometheus 监控服务
开启后,您可以按照实际需求灵活配置数据采集规则,并按需要配置告警规则,配置完成后即可打开 Grafana 查看监控数据。详情请参见 Prometheus 监控服务
日志服务
选择是否开通集群审计服务。详情请参见 集群审计

3. 信息确认

信息确认页面,确认集群的已选配置信息和费用,勾选我已阅读并同意 容器服务服务等级协议。如下图所示:



单击完成即可创建一个不包含 Worker Node 的 TKE 标准集群。

相关操作

为集群添加 Worker 节点,详情请参见 节点概述