前提条件
已有容器服务 TKE 托管集群(以下称作集群 A ),且集群版本需 >= 1.18 及以上。
已创建迁移目标的 TKE Serverless 集群(以下称作集群 B),集群版本需 >= 1.20 及以上,创建 TKE Serverless 集群请参见 创建集群。
集群 A 和 集群 B 需要共用同一个腾讯云 COS 存储桶作为 Velero 后端存储,配置 COS 存储桶请参见 配置对象存储。
集群 A 和 集群 B 建议在同一 VPC 下(如果需要备份 PVC 中的数据,必须在同一 VPC 下)。
确保镜像资源在迁移后可以正常拉取,在 TKE Serverless 集群中配置镜像仓库请参见 镜像仓库相关。
确保两个集群的 Kubernetes 版本的 API 兼容,建议使用相同版本。若集群 A 的集群版本较低,建议先升级集群 A 集群版本后,再进行迁移操作。
迁移限制
在 TKE 集群中启用固定 IP 特性的工作负载,在迁移到 TKE Serverless 集群后,IP 会发生改变。可以在 Pod Template 中指定 IP 创建 Pod,使用方式示例:
eks.tke.cloud.tencent.com/pod-ip: "xx.xx.xx.xx"
TKE Serverless 集群使用 containerd 作为运行时,与 docker 不一致,不兼容 Docker registry v2.5以下版本、harbor v1.10以下的版本的镜像。
TKE Serverless 集群中,每个 Pod 默认分配20Gi的临时磁盘空间,用于镜像存储,该盘随 Pod 的生命周期创建和销毁。若需使用更大磁盘空间,可以挂载其他类型的 volume 作数据存储,例如使用 PVC。
在 TKE Serverless 集群中部署 DaemonSet 类型的工作负载时,需使用 sidecar 方式部署在业务 Pod 中。
TKE Serverless 集群部署 NodePort 类型的服务时,无法通过 NodeIP:Port 访问服务,需要通过 ClusterIP:Port 访问服务。
部署在 TKE Serverless 集群上的 Pod 默认会通过9100端口,对外暴露监控数据。如果业务 Pod 本身需要监听9100端口,则可以在创建 Pod 时,在 Pod Template 中指定其他端口收集监控数据,避免跟业务的9100端口冲突。配置方式示例:
eks.tke.cloud.tencent.com/metrics-port: "9110"
除以上限制外,务必阅读 TKE Serverless 集群其他说明。
迁移步骤
以下将介绍 TKE 集群 A 中的资源迁移到 TKE Serverless 集群 B 中的详细操作步骤。
配置对象存储
下载 velero
1. 下载 Velero 最新版本安装包到集群环境中,本文以 v1.8.1 版本为例。
wget https://github.com/vmware-tanzu/velero/releases/download/v1.8.1/velero-v1.8.1-linux-amd64.tar.gz
2. 执行以下命令解压安装包,安装包提供 Velero 命令行执行文件和一些示例文件。
tar -xvf velero-v1.8.1-linux-amd64.tar.gz
3. 执行以下命令,将 Velero 可执行文件从解压后的目录迁移到系统环境变量目录下直接使用,本文以迁移至
/usr/bin
目录为例。示例如下:cp velero-v1.8.1-linux-amd64/velero /usr/bin/
在集群 A 和集群 B 中安装 velero
1. 配置 velero 客户端,开启 CSI 特性。
velero client config set features=EnableCSI
2. 执行以下命令在集群 A 和集群 B 中安装 Velero ,创建 Velero 工作负载以及其他必要的资源对象。
使用 CSI 备份 PVC 的示例如下:
velero install --provider aws \\--plugins velero/velero-plugin-for-aws:v1.1.0,velero/velero-plugin-for-csi:v0.2.0 \\--features=EnableCSI \\--features=EnableAPIGroupVersions \\--bucket <BucketName> \\--secret-file ./credentials-velero \\--use-volume-snapshots=false \\--backup-location-config region=ap-guangzhou,s3ForcePathStyle="true",s3Url=https://cos.ap-guangzhou.myqcloud.com
注意
TKE Serverless 集群不支持部署 Daemonset,因此本文示例都不支持使用 restic 插件。
如不需要备份 PVC,安装示例如下:
./velero install --provider aws --use-volume-snapshots=false --bucket gtest-1251707795 --plugins velero/velero-plugin-for-aws:v1.1.0 --secret-file ./credentials-velero --backup-location-config region=ap-guangzhou,s3ForcePathStyle="true",s3Url=https://cos.ap-guangzhou.myqcloud.com
安装参数 | 参数说明 |
--plugins | |
--features | |
--use-restic | |
--use-volume-snapshots=false | 关闭默认存储卷快照备份 |
3. 安装完成后,等待 Velero 工作负载就绪。执行以下命令,查看配置的存储位置是否可用,若显示 “Avaliable”,则说明集群可正常访问对象存储 COS。
velero backup-location getNAME PROVIDER BUCKET/PREFIX PHASE LAST VALIDATED ACCESS MODE DEFAULTdefault aws <BucketName> Available 2022-03-24 21:00:05 +0800 CST ReadWrite true
(可选) 在集群 A 和集群 B 中安装 VolumeSnapshotClass 对象
1. 确认已安装 CBS-CSI 插件。
3. 使用以下 YAML,创建 VolumeSnapshotClass 对象。示例如下:
apiVersion: snapshot.storage.k8s.io/v1beta1kind: VolumeSnapshotClassmetadata:labels:velero.io/csi-volumesnapshot-class: "true"name: cbs-snapclassdriver: com.tencent.cloud.csi.cbsdeletionPolicy: Delete
4. 执行以下命令,检查 VolumeSnapshotClass 是否创建成功。示例如下:
$ kubectl get volumesnapshotclassNAME DRIVER DELETIONPOLICY AGEcbs-snapclass com.tencent.cloud.csi.cbs Delete 17m
(可选) 创建集群 A 示例资源
说明
如不需要备份 PVC,可跳过该步骤。
在集群 A 中部署 Velero 实例中含有 PVC 的 minio 工作负载,这里使用 cbs-csi 动态存储类来创建 PVC 和 PV。
1. 使用集群中 provisioner 为
com.tencent.cloud.csi.cbs
的存储类来动态创建 pv。pvc 示例如下:apiVersion: v1kind: PersistentVolumeClaimmetadata:annotations:volume.beta.kubernetes.io/storage-provisioner: com.tencent.cloud.csi.cbsname: miniospec:accessModes:- ReadWriteOnceresources:requests:storage: 10GistorageClassName: cbs-csivolumeMode: Filesystem
2. 使用 Helm 工具,创建一个引用上述 pvc 的 MinIO 测试服务,MinIO 安装方式请参见 MinIO 安装。在此示例中,已经为 MinIO 服务绑定了负载均衡器,可以在浏览器中使用公网地址访问管理页面。
3. 登录 MinIO Web 管理页面,上传用于测试的图片。如下图所示:
备份与还原
1. 在集群 A 创建备份,请参见集群迁移操作步骤中的 集群 A 创建备份。
2. 在集群 B 还原备份,请参见集群迁移操作步骤中的 集群 B 执行还原。
3. 迁移结果核验:
如不需要备份 PVC,请参见集群迁移操作步骤中的 迁移结果核验。
如需要备份 PVC,参照以下步骤进行核验:
3.1.1 执行以下命令,校验集群 B 执行迁移操作后的集群资源,可以看到 Pods、PVC、Service 资源已按预期迁移成功。如下图所示:
3.1.2 登录集群 B 中的 MinIO 服务,可以看到 MinIO 服务中的图片数据未丢失,说明持久卷数据已按预期迁移成功。
4. 至此已完成了 TKE 集群与 TKE Serverless 集群间资源的迁移。
迁移操作完成后,执行以下命令,将集群 A 和 集群 B 的备份存储位置恢复为读写模式,以便在下次备份任务可以正常备份。示例如下:
kubectl patch backupstoragelocation default --namespace velero \\--type merge \\--patch '{"spec":{"accessMode":"ReadWrite"}}'
使用 Serverless 集群常见问题
拉取镜像失败:请参见 镜像仓库。
域名解析失败:常见于 Pod 镜像拉取失败、投递日志到自建 kafka 失败,请参见 Serverless 集群自定义 DNS 服务。
日志投递到 CLS 失败:首次使用 TKE Serverless 集群投递日志到 CLS,需要为服务授权,请参见 首次授权。
每个集群默认仅可创建 100 个 Pod,若需要创建超过配额的资源,请参见 默认配额。
Pod 频繁被销毁重建,报错
Timeout to ensure pod sandbox
:TKE Serverless 集群 Pod 内的组件会与管控面通讯以保持健康检测,当 Pod 创建完后,Pod 持续 6 分钟网络不通,则会被管控面发起销毁重建。此时需检查 Pod 关联的安全组是否放通了 169.254 路由的访问。Pod 端口访问不通 / not ready:
业务容器端口是否与 TKE Serverless 集群管控面端口有冲突,请参见 端口限制。
Pod 可以 ping 成功,但是 telnet 失败,检查安全组。
业务日志转存:Serverless 容器服务 job 类型的业务在退出后,底层资源就被回收,此时 Kubectl logs 无法查看容器日志,对于需要 debug 的场景不友好。可通过延迟销毁或者设置 terminationMessage 字段将业务日志转存,请参见 设置容器终止消息。
Pod 频繁重启,报错
ImageGCFailed
:TKE Serverless 集群 Pod 默认磁盘大小为 20GiB, 如果磁盘使用空间达到 80%,TKE Serverless 集群管控面就会触发容器镜像的回收流程,尝试回收未使用的容器镜像来释放磁盘空间。如果未能释放任何空间,则会有一条事件提醒:ImageGCFailed: failed to garbage collect required amount of images
,提醒用户磁盘空间不足。常见磁盘空间不足的原因有:业务有大量临时输出。
业务持有已删除的文件描述符,导致磁盘空间未释放。