由一个global 集群和一个或多个workload 集群组成。必须先升级 global 集群,之后才能升级任何 workload 集群。
本文档将引导您完成 global 集群的升级操作步骤。
如果 global 集群配置了**global DR(灾难恢复)**方案,请严格按照global DR 操作步骤执行。否则,请按照标准操作步骤执行。
将升级包复制到 global 集群的任意控制平面节点,解压升级包并进入解压后的目录。
如果 global 集群使用的是内置镜像仓库,执行:
如果 global 集群使用的是外部镜像仓库,还需提供仓库地址:
上传镜像通常需要约 2 小时,具体时间取决于您的网络和磁盘性能。如果您的平台使用 global DR,记得备用 global 集群也需要上传镜像,请合理安排维护时间窗口。
镜像上传完成后,运行以下命令启动升级流程:
等待脚本执行完成后再继续操作。
global
集群,打开其详情视图。在弹出的对话框中查看可用的组件更新,确认继续升级。
Kubernetes 版本升级为可选项。但由于升级过程中可能会出现服务中断,建议一并升级 Kubernetes 版本,以避免多次维护窗口。
如果 global 集群中安装了 Alauda Container Platform GitOps
,且升级后插件的 Pod 运行异常,请参考升级 Alauda Container Platform GitOps。
按照常规 global DR 检查流程,确保备用 global 集群中的数据与主 global 集群保持一致。如发现不一致,请先联系技术支持,再继续操作。
在两个集群上运行以下命令,确保没有处于非运行状态的 Machine
节点:
如果存在此类节点,请联系技术支持解决后再继续。
global
。按照标准操作步骤中描述的流程,先升级备用 global 集群。
备用集群升级完成后,按照相同的标准操作步骤升级主 global 集群。
重新安装前,请确认端口 2379
已正确从两个 global 集群的 VIP 转发到其控制平面节点。
重新安装步骤:
global
集群。验证安装:
运行以下命令验证同步状态:
输出说明:
"LOCAL ETCD missed keys:"
– 表示这些键存在于主集群,但在备用集群缺失。通常重启 Pod 后会自动恢复。"LOCAL ETCD surplus keys:"
– 表示这些键存在于备用集群,但主集群不存在。请与运维团队确认后再决定是否删除。