TKE Serverless 集群支持 通过 Annotation 指定 及 通过 Request、Limit 自动计算 两种方式,指定为 Pod 分配的资源上限。您可选择其中一种方式进行配置。
TKE Serverless 集群支持在工作负载 yaml 中以添加 template annotation
的方式,显式的指定 Pod 资源规格。详情请参见 Annotation 说明。
TKE Serverless 集群支持对工作负载设置的 Request 及 Limit 进行计算,自动判断 Pod 运行所需的资源量。根据 Pod 资源类型的不同,其计算方法也略有差异。请参考 CPU Pod 规格计算方法 及 GPU Pod 规格计算方法,进一步了解如何通过 Request、Limit 自动计算指定资源规格。
注意:
- 如指定了工作负载
template annotation
,则以 Annotation 配置为准,不进行 Request 及 Limit 核算。- Request 及 Limit 的分配请参考 资源规格 中的 CPU、GPU 支持规格,若设定值与支持规格差别过大可能会导致某项资源分配超预期,造成资源浪费。
- 无论如何设置 Request 及 Limit,其最终计算结果都会与 资源规格 进行匹配,且最终 Pod 分配的实际资源一定不会超出其中允许的规格。
- 如 Pod 内有容器未设置 Request 及 Limit,则未设置项作为0运算。
- 如 Pod 内所有容器都未设置 Request 及 Limit,则默认使用 Pod 规格为1核2GiB。
- Initcontainer 和 Container 分别按下述方法计算,最终取大者。
合计数值分别为 Pod 内所有容器的 Request 之和、Pod 内所有容器的 Limit 中的最大值中的较大者。
CPU 及 Memory 合计数值 | Pod 资源选择规则 |
---|---|
合计数值均为0 | 选择规格为1核2GiB。 |
任一合计数值为0 | 按非0项的合计数值进行最小匹配。 例如,CPU 合计数值为0核,Memory 合计数值为8GiB,则在 Memory 为8GiB的允许规格中进行 CPU 最小匹配,最终选择规格为1核8GiB。 |
合计数值均不为0 |
与 资源规格 进行匹配。首先选择与 CPU 合计数值一致或相近的较大规格(A 规格),然后再选择与 Memory 的相近较大规格:
|
任一合计数值超过允许的最大规格 | 出现错误,无法进行匹配。 |
请结合以下示例,进一步了解 CPU Pod 规格计算方法:
说明:
- GPU 和 vGPU 的 Request 及 Limit 参数
“nvidia.com/gpu”
通常相等且仅支持整数。- vGPU 可以看作是一种独立的 GPU 类型。例如 1/4*V100,是将一张 V100 GPU 卡 1/4 的算力虚拟为一张完整的卡进行分配,故在请求资源分配时依然应该是申请1卡 GPU,即
“nvidia.com/GPU”=1
。
GPU 合计数值为 Pod 内所有容器的 Request 之和。
CPU、Memory 及 GPU 合计数值 | Pod 资源匹配规则 |
---|---|
符合规格要求(例如1、2、4、8等) | 首先选择与 GPU 合计数值一致或最相近的较大规格(A 规格),再按照 CPU Pod 规格计算方法 对 CPU 及 Memory 进行计算,得出 CPU 规格(B 规格):
|
任一合计数值如果超过允许的最大规格 | 出现错误,无法进行匹配。 |
请结合以下示例,进一步了解 GPU Pod 规格计算方法:
## eks.tke.cloud.tencent.com/gpu-type:V100
resources:
limits:
cpu: "8"
memory: 32Gi
nvidia.com/gpu: "1"
requests:
cpu: "4"
memory: 16Gi
nvidia.com/gpu: "1"
说明:
GPU 合计数值为:1
CPU 合计数值为:max(4,8) = 8核
Memory 合计数值为:max(16,32) = 32GiB
结果:8核32GiB小于 资源规格 中 V100 GPU 规格(1卡)对应的 CPU 及 Memory 规格(8核40GiB)。最终选择 Pod 规格为8核40GiB 1*V100。
本页内容是否解决了您的问题?