tke-autoscaling-placeholder
可以用于在 TKE 上实现秒级伸缩,应对流量突高场景。本文将介绍如何使用 tke-autoscaling-placeholder
实现秒级弹性伸缩。tke-autoscaling-placeholder
利用低优先级的 Pod 对资源进行提前占位(带 request 的 pause 容器,实际消耗资源量低),为一些可能会出现流量突高的高优先级业务预留部分资源作为缓冲。当需要扩容 Pod 时,高优先级的 Pod 就可以快速抢占低优先级 Pod 的资源进行调度,而低优先级的 tke-autoscaling-placeholder
的 Pod 则会被“挤走”,状态变成 Pending,如果配置了节点池并启用弹性伸缩,将会触发节点的扩容。由于通过一些资源作为缓冲,即使节点扩容慢,也能保证一些 Pod 能够快速扩容并调度上,实现秒级伸缩。调整预留的缓冲资源多少,可根据实际需求调整 tke-autoscaling-placeholder
的 request 或副本数。tke-autoscaling-placeholder
应用,集群版本需要在1.18以上。tke-autoscaling-placeholder
进行搜索,找到该应用。如下图所示:
replicaCount
与 resources.request
,分别表示 tke-autoscaling-placeholder
的副本数与每个副本占位的资源大小,它们共同决定缓冲资源的大小,可以根据流量突高需要的额外资源量来估算进行设置。
tke-autoscaling-placeholder
完整参数配置说明请参考如下表格:参数名称 | 描述 | 默认值 |
replicaCount | placeholder 的副本数 | 10 |
image | placeholder 的镜像地址 | ccr.ccs.tencentyun.com/library/pause:latest |
resources.requests.cpu | 单个 placeholder 副本占位的 CPU 资源大小 | 300m |
resources.requests.memory | 单个 placeholder 副本占位的内存大小 | 600Mi |
lowPriorityClass.create | 是否创建低优先级的 PriorityClass (用于被 placeholder 引用) | true |
lowPriorityClass.name | 低优先级的 PriorityClass 的名称 | low-priority |
nodeSelector | 指定 placeholder 被调度到带有特定 label 的节点 | {} |
tolerations | 指定 placeholder 要容忍的污点 | [] |
affinity | 指定 placeholder 的亲和性配置 | {} |
$ kubectl get pod -n defaulttke-autoscaling-placeholder-b58fd9d5d-2p6ww 1/1 Running 0 8stke-autoscaling-placeholder-b58fd9d5d-55jw7 1/1 Running 0 8stke-autoscaling-placeholder-b58fd9d5d-6rq9r 1/1 Running 0 8stke-autoscaling-placeholder-b58fd9d5d-7c95t 1/1 Running 0 8stke-autoscaling-placeholder-b58fd9d5d-bfg8r 1/1 Running 0 8stke-autoscaling-placeholder-b58fd9d5d-cfqt6 1/1 Running 0 8stke-autoscaling-placeholder-b58fd9d5d-gmfmr 1/1 Running 0 8stke-autoscaling-placeholder-b58fd9d5d-grwlh 1/1 Running 0 8stke-autoscaling-placeholder-b58fd9d5d-ph7vl 1/1 Running 0 8stke-autoscaling-placeholder-b58fd9d5d-xmrmv 1/1 Running 0 8s
tke-autoscaling-placeholder
默认优先级较低,其中业务 Pod 可以指定一个高优先的 PriorityClass,方便抢占资源实现快速扩容。如果还未创建 PriorityClass,您可以参考如下示例进行创建:apiVersion: scheduling.k8s.io/v1kind: PriorityClassmetadata:name: high-priorityvalue: 1000000globalDefault: falsedescription: "high priority class"
priorityClassName
为高优先的 PriorityClass。示例如下:apiVersion: apps/v1kind: Deploymentmetadata:name: nginxspec:replicas: 8selector:matchLabels:app: nginxtemplate:metadata:labels:app: nginxspec:priorityClassName: high-priority # 这里指定高优先的 PriorityClasscontainers:- name: nginximage: nginxresources:requests:cpu: 400mmemory: 800Mi
tke-autoscaling-placeholder
的 Pod 资源抢占过来并调度上,此时 tke-autoscaling-placeholder
的 Pod 状态将变成 Pending。示例如下:$ kubectl get pod -n defaultNAME READY STATUS RESTARTS AGEnginx-bf79bbc8b-5kxcw 1/1 Running 0 23snginx-bf79bbc8b-5xhbx 1/1 Running 0 23snginx-bf79bbc8b-bmzff 1/1 Running 0 23snginx-bf79bbc8b-l2vht 1/1 Running 0 23snginx-bf79bbc8b-q84jq 1/1 Running 0 23snginx-bf79bbc8b-tq2sx 1/1 Running 0 23snginx-bf79bbc8b-tqgxg 1/1 Running 0 23snginx-bf79bbc8b-wz5w5 1/1 Running 0 23stke-autoscaling-placeholder-b58fd9d5d-255r8 0/1 Pending 0 23stke-autoscaling-placeholder-b58fd9d5d-4vt8r 0/1 Pending 0 23stke-autoscaling-placeholder-b58fd9d5d-55jw7 1/1 Running 0 94mtke-autoscaling-placeholder-b58fd9d5d-7c95t 1/1 Running 0 94mtke-autoscaling-placeholder-b58fd9d5d-ph7vl 1/1 Running 0 94mtke-autoscaling-placeholder-b58fd9d5d-qjrsx 0/1 Pending 0 23stke-autoscaling-placeholder-b58fd9d5d-t5qdm 0/1 Pending 0 23stke-autoscaling-placeholder-b58fd9d5d-tgvmw 0/1 Pending 0 23stke-autoscaling-placeholder-b58fd9d5d-xmrmv 1/1 Running 0 94mtke-autoscaling-placeholder-b58fd9d5d-zxtwp 0/1 Pending 0 23s
tke-autoscaling-placeholder
,巧妙的利用了 Pod 优先级与抢占的特点,提前部署一些用于占位资源的低优先级“空 Pod” 作为缓冲资源填充,在流量突高并且集群资源不够的情况下抢占这些低优先级的“空 Pod” 的资源,同时触发节点扩容,实现在资源紧张的情况下也能做到秒级伸缩,不影响业务正常运行。
本页内容是否解决了您的问题?