描述
容器集群添加 CVM 实例,产品介绍
示例
resource "tencentcloud_kubernetes_cluster_attachment" "test_attach" {cluster_id = tencentcloud_kubernetes_cluster.managed_cluster.idinstance_id = tencentcloud_instance.foo.idpassword = "Lo4wbdit"labels = {"test1" = "test1","test2" = "test2",}worker_config_overrides {desired_pod_num = 8}}
参数说明
类型 | 名称 | 数据类型 | 说明 |
必填 | region | string | 地域,如:ap-guangzhou,默认使用 provider 中定义的 region
也可以在 resource 中指定地域,覆盖默认设置 |
必填 | cluster_id | string | 集群 ID |
必填 | instance_id | string | CVM 实例 ID |
可选 | availability_zone | string | 可用区 |
可选 | count | int | 资源数量,默认为 1
如果为 0 则不创建资源 |
可选 | activity_id | int | 计费活动 ID,保留字段 |
可选 | password | string | 节点登录密码 |
可选 | key_ids | string[] | |
可选 | hostname | string | |
可选 | labels | object | 节点 Label 数据 |
可选 | unschedulable | int | 设置加入的节点是否参与调度,默认值为0,表示参与调度;非0表示不参与调度,待节点初始化完成之后,可执行 kubectl uncordon nodename 使 node 加入调度 |
可选 | worker_config | Schema[] | 节点配置 Schema 类型详见:TkeInstanceAdvancedSettingSchema |
可选 | worker_config_overrides | Schema[] | 用于定制化地配置各台 instance,与 InstanceIds 顺序对应。 Schema 类型详见:TkeInstanceAdvancedSettingSchema |
生成 | id | string | 资源实例 ID |
生成 | create_time | string | 资源创建时间 |
数据结构
TkeInstanceAdvancedSettingSchema
描述
用 CVM 创建 node 节点的参数定义。
参数说明
类型 | 名称 | 数据类型 | 说明 |
可选 | data_disk | Schema[] | 数据盘配置 Schema 类型详见:DataDiskSchema |
可选 | mount_target | string | 数据盘挂载点,默认不挂载数据盘 |
可选 | docker_graph_path | string | dockerd --graph 指定值,示例值为 /var/lib/docker |
可选 | extra_args | string[] | 节点相关的自定义参数信息 |
可选 | user_data | string | base64 编码的用户脚本,此脚本会在 k8s 组件运行后执行,需要用户保证脚本的可重入及重试逻辑。 脚本及其生成的日志文件可在节点的 /data/ccs_userscript/ 路径查看,如果要求节点需要在进行初始化完成后才可加入调度,可配合 unschedulable 参数使用,在 userScript 最后初始化完成后,添加 kubectl uncordon nodename --kubeconfig=/root/.kube/config 命令使节点加入调度 |
可选 | pre_start_user_script | string | base64 编码的用户脚本,在初始化节点之前执行,目前只对添加已有节点生效 |
可选 | is_schedule | boolean | 设置加入的节点是否参与调度 |
可选 | desired_pod_num | int | 该节点属于 podCIDR 大小自定义模式时,可指定节点上运行的 pod 数量上限 |
可选 | gpu_args | Schema[] | GPU 相关的参数,包括驱动版本,CUDA 版本,CUDNN 版本以及是否开启 MIG Schema 类型详见:GPUArgsSchema |
DataDiskSchema
描述
描述了 k8s 节点数据盘相关配置与信息。
参数说明
类型 | 名称 | 数据类型 | 说明 |
必填 | disk_type | enum | 云盘类型 示例值:CLOUD_PREMIUM 硬盘介质类型。取值范围: CLOUD_BASIC:表示普通云硬盘 CLOUD_PREMIUM:表示高性能云硬盘 CLOUD_BSSD:表示通用型 SSD 云硬盘 CLOUD_SSD:表示 SSD 云硬盘 CLOUD_HSSD:表示增强型 SSD 云硬盘 CLOUD_TSSD:表示极速型 SSD 云硬盘。 枚举值: LOCAL_BASIC LOCAL_SSD CLOUD_BASIC CLOUD_PREMIUM CLOUD_SSD CLOUD_HSSD CLOUD_TSSD |
必填 | file_system | string | 文件系统(ext3/ext4/xfs)
示例值:ext4 |
必填 | disk_size | int | 云盘大小(G)
示例值:50 |
必填 | auto_format_and_mount | boolean | 是否自动化格式盘并挂载
示例值:true |
必填 | disk_partition | string | 挂载设备名或分区名
示例值:/dev/vdb |
可选 | mount_target | string | 挂载目录
示例值:/var/lib/docker |
可选 | encrypt | string | 传入该参数用于创建加密云盘,取值固定为 ENCRYPT 示例值:ENCRYPT |
可选 | kms_key_id | string | 购买加密盘时自定义密钥,当传入该参数时,Encrypt 入参不为空 示例值:06a83929-0050-11ee-8cbc-5254001955d1 |
可选 | snapshot_id | string | 快照 ID,如果传入则根据此快照创建云硬盘,快照类型必须为数据盘快照 示例值:snap-2ubk61lh |
可选 | throughput_performance | int | 云硬盘性能,单位:MB/s。使用此参数可给云硬盘购买额外的性能
示例值:10 |
GPUArgsSchema
描述
GPU 相关的参数,包括驱动版本,CUDA 版本,CUDNN 版本以及是否开启 MIG
参数说明
类型 | 名称 | 数据类型 | 说明 |
可选 | cuda | Schema[] | CUDA 版本信息 Schema 类型详见:DriverVersionSchema |
可选 | cudnn | Schema[] | CUDNN 版本信息 Schema 类型详见:CUDNNSchema |
可选 | custom_driver | Schema[] | 自定义 GPU 驱动信息 Schema 类型详见:CustomDriverSchema |
可选 | driver | Schema[] | GPU 驱动版本信息 Schema 类型详见:DriverVersionSchema |
可选 | mig_enable | boolean | 是否启用 MIG 特性 示例值:false |
DriverVersionSchema
描述
GPU 驱动版本信息
参数说明
类型 | 名称 | 数据类型 | 说明 |
必填 | name | string | GPU 驱动或者 CUDA 的名字 示例值:NVIDIA-Linux-x86_64-418.126.02.run |
必填 | version | string | GPU 驱动或者 CUDA 的版本 示例值:418.126.02 |
CUDNNSchema
描述
CUDNN 版本信息
参数说明
类型 | 名称 | 数据类型 | 说明 |
必填 | name | string | CUDNN 的名字 示例值:libcudnn7_7.5.0.56-1+cuda10.1_amd64.deb |
必填 | version | string | CUDNN 的版本 示例值:7.5.0 |
可选 | dev_name | string | CUDNN 的 Dev 名字 示例值:libcudnn7-dev_7.5.0.56-1+cuda10.1_amd64.deb |
可选 | doc_name | string | CUDNN 的 Doc 名字 示例值:libcudnn7-doc_7.5.0.56-1+cuda10.1_amd64.deb |
CustomDriverSchema
描述
自定义 GPU 驱动信息
参数说明
类型 | 名称 | 数据类型 | 说明 |
可选 | address | string | 自定义 GPU 驱动地址链接 示例值:https://tencent.com/NVIDIA-Linux-x86_64-460.32.03.run |