文档中心>容器服务>实践教程>网络>核心应用流量完全无损升级

核心应用流量完全无损升级

最近更新时间:2024-04-10 15:07:21

我的收藏

业务场景

对于某些核心的应用(如流量网关),我们不希望升级过程中出现任何故障。在升级这种核心应用的时候,我们采取极其保守的策略,宁愿操作繁琐,也要确保风险完全可控。这意味着需要先确保待升级的 Pod 完全被摘流,然后再手动重建 Pod 触发升级,持续经现网流量灰度一段时间后,如果一切正常,再逐步扩大灰度范围。如果期间发现任何问题,我们可以回滚已升级的副本。

升级导致故障的可能情况

下面列举一些在升级时可能导致故障的情况:
1. 应用的优雅终止逻辑可能不够完善,导致在 Pod 停止时部分存量连接异常。
2. 存量长连接迟迟不断开,可能超过 terminationGracePeriodSeconds,导致 Pod 停止时,存量连接异常关闭。
3. 新版应用可能引入隐藏 BUG 或不兼容改动,这些问题可能在健康检查中无法被探测到,等上线后一段时间才被动发现。
4. CLB 摘流和 Pod 停止两个过程异步并行执行,在极端的场景下,Pod 已经开始进入优雅终止流程,不再接收增量连接,但 CLB 还没有来得及摘流(改变权重),导致个别新连接被调度到正在停止的 Pod 而无法得到处理。

流量完全无损升级的方法

在 TKE 环境中,可以使用 StatefulSet 来部署核心应用,并配合 TKE 的 Service 注解来实现对指定序号的 Pod 提前摘流,再结合 StatefulSet 的 OnDelete 更新策略对 Pod 进行手动重建更新来实现流量完全无损的升级。以下是大致的升级流程:




操作步骤

创建 StatefulSet

apiVersion: apps/v1
kind: StatefulSet
metadata:
name: nginx
spec:
replicas: 10
podManagementPolicy: Parallel
selector:
matchLabels:
app: nginx
serviceName: nginx
template:
metadata:
annotations:
tke.cloud.tencent.com/networks: tke-route-eni # GlobalRouter 与 VPC-CNI 混用时显式声明使用 VPC-CNI
labels:
app: nginx
spec:
containers:
- image: nginx:1.25.3
imagePullPolicy: IfNotPresent
name: nginx
ports:
- containerPort: 80
name: http
protocol: TCP
resources: # GlobalRouter 与 VPC-CNI 混用时显式声明使用 VPC-CNI
limits:
tke.cloud.tencent.com/eni-ip: "1"
requests:
tke.cloud.tencent.com/eni-ip: "1"
updateStrategy:
type: OnDelete # 重要:使用手动重建触发升级而非滚动更新

---
apiVersion: v1
kind: Service
metadata:
labels:
app: nginx
annotations:
service.cloud.tencent.com/direct-access: "true" # 重要:启用 CLB 直连 Pod
name: nginx
spec:
ports:
- port: 80
protocol: TCP
targetPort: 80
selector:
app: nginx
type: LoadBalancer
说明:
StatefulSet 的 updateStrategy 使用 OnDelete
确保 Pod 使用 VPC-CNI 网络或调度到超级节点(方便启用 CLB 直连)。
加 Service 注解启用 CLB 直连。

逐个升级

1. 首先将 StatefulSet 所使用的镜像替换为新的镜像(升级后期望使用的镜像版本)。
kubectl set image statefulset/nginx nginx=nginx:1.25.4
2. 将 StatefulSet 副本数加1,因为副本重建的过程中副本数会少1个,提前增加1个副本可避免升级过程中 Pod 的平均负载过高导致业务异常:
kubectl scale --replicas=11 statefulset/nginx
3. 为 Service 添加注解:
service.cloud.tencent.com/lb-rs-weight: '{"defaultWeight":10,"groups":[{"key":{"proto":"TCP","port":80},"statefulSets":[{"name":"nginx","weights":[{"weight":0,"podIndexes":[0]}]}]}]}'
key 里填入 Service 里声明的端口和协议,如果有多个端口,需在 groups 数组里再加一份配置(只有 key 不同),示例如下:
service.cloud.tencent.com/lb-rs-weight: '{"defaultWeight":10,"groups":[{"key":{"proto":"TCP","port":80},"statefulSets":[{"name":"nginx","weights":[{"weight":0,"podIndexes":[0]}]}]},{"key":{"proto":"TCP","port":8080},"statefulSets":[{"name":"nginx","weights":[{"weight":0,"podIndexes":[0]}]}]}]}'
statefulSets 里的 name 填入 StatefulSet 的名称。
podIndexes 里填入接下来计划升级的 Pod 序号,一般从0开始。
weight 置为0,即将该序号的 Pod 从 CLB 后端摘流(增量连接不再调度过去,等待存量连接结束)。
4. 在 CLB 控制台查看对应 CLB 的监听器绑定的后端服务,确认将要升级的 Pod IP 的流量权重为0:



5. 等待存量连接和流量完全归零,可在 CLB 的监控页面确认(输入对应的监听器和后端服务进行过滤):



6. 删除计划升级的 Pod,触发重建升级:
kubectl delete pod nginx-0
7. 观察升级后的 Pod 运行状态、镜像和健康状态,以确保它们都符合预期(可以通过现网流量验证一段时间,如果发现异常,可以回滚镜像版本并再次按照步骤 3~5 回滚):
$ kubectl get pod -o wide nginx-0
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
nginx-0 1/1 Running 0 86s 10.10.2.28 10.10.11.3 <none> 1/1
$ kubectl get pod nginx-0 -o yaml | grep image:
- image: nginx:1.25.4
image: docker.io/library/nginx:1.25.4


8. 修改 Service 注解中的 podIndexes,准备升级下一个 Pod:
service.cloud.tencent.com/lb-rs-weight: '{"defaultWeight":10,"groups":[{"key":{"proto":"TCP","port":80},"statefulSets":[{"name":"nginx","weights":[{"weight":0,"podIndexes":[1]}]}]}]}'
9. 循环 3~7 的步骤,直到倒数第二个副本升级完成。
10. 删除 service.cloud.tencent.com/lb-rs-weight 这个 Service 注解,恢复所有 Pod 的流量权重。
11. 恢复 StatefulSet 的副本数(缩掉最后一个冗余的副本):
kubectl scale --replicas=10 statefulset/nginx
至此,完成升级。

分批升级

如果副本数较多,逐个升级可能会显得过于繁琐。在这种情况下,您可以选择分批升级,即从每次升级1个 Pod 变为每次升级多个 Pod,操作步骤与 逐个升级 基本一致,主要的区别在于每次操作的 Pod 数量:
提前扩的副本数以及每次删除重建的副本数从1个变为多个。
service.cloud.tencent.com/lb-rs-weight 注解里的 podIndexes 从1个变为多个。例如,如果每次升级4个 Pod,您需要在注解中指定这4个 Pod:
service.cloud.tencent.com/lb-rs-weight: '{"defaultWeight":10,"groups":[{"key":{"proto":"TCP","port":80},"statefulSets":[{"name":"nginx","weights":[{"weight":0,"podIndexes":[0,1,2,3]}]}]}]}'