K8S集群Node节点NotReay状态故障排查思路
2023-09-14 09:15:42 时间
K8S集群Node节点NotReay状态故障排查思路
1.K8S集群集群节点故障
在K8S集群中,经常会出现Node节点处于NotReady的状态,当Node节点处于NotReady状态时,会导致该Node节点上的所有Pod资源停止服务,对整体应用程序会产生一定的影响。
在一个Node节点中可以运行多个Pod资源,每一个Pod资源中可以运行一个容器或者多个容器,同时共享一个网络存储资源,一般情况下,一个Pod资源中会运行一个容器,如果Node节点不可用,就会导致该Node节点上运行的Pod容器不可用,Node节点是否健康,会直接影响该节点下所有应用程序容器的监控状态,都会处于不可用的状态,甚至会影响K8S集群。
节点故障的原因有以下几种:
- 集群刚搭建完成,集群Node节点处于NotReady状态,Pod无法调度。
- 集群稳定运行一段时间后,Node节点突然处于NodeReady状态,可能是由于Kubelet组件发生故障导致。
2.K8S集群Node节点故障排查思路
<
相关文章
- 从零开始入门 K8s | Kubernetes API 编程利器:Operator 和 Operator Framework
- 从零开始入门 K8s | 调度器的调度流程和算法介绍
- K8s 集群节点在线率达到 99.9% 以上,扩容效率提升 50%,我们做了这 3 个深度改造
- Centos7 k8s v1.5.2二进制部署安装-服务发现
- Centos7 k8s部署dahsboard
- K8S网络通讯方式介绍:pod之间基于overlay、pod内容器之间基于lo、pod和svc之间基于节点的iptables规则
- K8S指定调度节点(根据节点label匹配):spec.nodeSelector使用示例
- K8S集群master节点打污点:可让master节点参与pod调度
- k8s 给worker/master节点打标签(角色标签)
- k8s节点标签:给worker打标签、给master打标签(默认就有)
- k8s master节点参与调度(去除NoSchedule污点)
- k8s 更改pod数量限制(默认每个节点最多110组pod)0/3 nodes are available: 3 Insufficient cpu报错排查
- 基于阿里云镜像源使用kubeadm安装k8s单master节点集群(v1.17.3)
- 【网址收藏】在 Kubernetes k8s上离线安装 KubeSphere(官网)
- 【K8s】第1篇 一篇文章带你部署安装k8s集群(linux-arm64)
- 【K8S】基于单Master节点安装K8S集群
- (2022版)一套教程搞定k8s安装到实战 | K8s集群安装(二进制)
- 【云原生之kubernetes实战】在k8s环境下部署Discuz论坛系统
- 【云原生之kubernetes实战】k8s集群核心资源对象之Pod
- k8s集群驱逐node节点上的pod
- k8s使用glusterfs做持久化存储(十三)
- k8s master节点更换ip 重签证书
- K8S 笔记(成功实验)——筑梦之路
- 【K8S系列】深入解析无状态服务
- K8S故障排查指南:部分节点无法启动Pod资源-Pod处于ContainerCreating状态