原因:node 层级的 cpu/memory 分配量指标依赖节点上各个 pod 的 cpu/memory request 来计算,在计算时没有把 failed 的 pod 排除。
示例:节点规格是 4c8g,节点上目前运行 3 个 pod(资源 request 用量如下):
此时节点剩余可调度资源为 4-2-1=1c、8-4-2=2g,pod4 request 为 0.8c1.5g,满足调度器筛选,正常被调度到该节点上。此时节点上共 4 个 pod,3 个正常 1 个异常,此时 node 层级的分配量为 4.3c8.5g(因计算时没有把 failed 的 pod 排除,因此超过了节点规格)。
该问题已在 5 月新版本中修复,即计算 node 资源分配量已把异常 pod 排除。
原因:该指标根据 workload 下 pod 是否异常来判断,pod 是否异常取决于 pod.status.condition
下这四个 Type 来确定。当这四个指标同时为True
时k8s_workload_abnormal
才会认为是正常,否则认为是异常。
现象 | 原因 | 解决措施 |
---|---|---|
无法解析域名 `receiver.barad.tencentyun.com`,指标上报失败,导致用户集群没有监控数据 | 节点 dns 被修改 | 给 DaemonSet tke-monitor-agent 加上 hostAlias。参考代码如下:
|
本页内容是否解决了您的问题?