kubelet 更多内容
  • 工作负载异常:实例无法写入数据

    failed due to failed to write checkpoint file "kubelet_internal_checkpoint": open /var/lib/kubelet/device-plugins/.xxxxxx: read-only file system

    来自:帮助中心

    查看更多 →

  • 节点扩容规格后未就绪怎么办?

    操作步骤 “/mnt/paas/kubernetes/kubelet/cpu_manager_state”文件储存的是原先的cpu_manager_policy,是针对原先CPU核数的绑核设置,需要进行删除。然后重启kubelet,让cpu_manager根据现有的CPU Topo

    来自:帮助中心

    查看更多 →

  • 挂载文件存储的节点,Pod创建删除卡死

    /mnt/paas/kubernetes/kubelet/pods/7b88feaf-71d6-4e6f-8965-f5f0766d9f35/volumes/kubernetes.io~csi/sfs-turbo-ls/mount 重启kubelet。 systemctl restart kubelet 问题根因

    来自:帮助中心

    查看更多 →

  • CCE节点事件中一直出现“镜像回收失败”告警如何解决?

    意味着该容器仍然引用着容器镜像。由于kubelet无法感知到非Pod产生的容器,也就无法感知到该容器镜像被引用,因此当kubelet尝试删除容器镜像时,容器运行时会因为容器镜像仍处于被引用的状态而拦截kubelet的删除行为,导致kubelet在定期回收镜像过程中出现失败。 解决方法

    来自:帮助中心

    查看更多 →

  • 节点异常问题排查

    检查节点的关键组件 Kubelet 查看Kubelet状态 登录对应的异常节点,在节点上执行如下命令,查看Kubelet进程状态。 systemctl status kubelet 预期输出: 查看Kubelet日志 登录对应的异常节点,在节点上执行如下命令,查看Kubelet进程状态。 journalctl

    来自:帮助中心

    查看更多 →

  • 节点

    节点 kubelet性能配置 kubelet配置 kube-proxy配置 计算配置

    来自:帮助中心

    查看更多 →

  • PVC视图

    PVC指标说明 指标 类型 描述 kubelet_volume_stats_inodes_used Gauge 卷中已使用的inode数 kubelet_volume_stats_inodes Gauge 卷中的最大inode数 kubelet_volume_stats_capacity_bytes

    来自:帮助中心

    查看更多 →

  • CVE-2020-8557的漏洞公告

    netes/issues/93032 如何判断是否涉及漏洞 使用了受影响的集群版本: kubelet v1.18.0-1.18.5 kubelet v1.17.0-1.17.8 kubelet < v1.16.13 漏洞分析结果 CCI服务不受本次漏洞影响,原因如下: CCI当前集群基于

    来自:帮助中心

    查看更多 →

  • 存储扩容

    盘可以选择使用容器引擎和Kubelet共享磁盘空间的方式,即不再划分容器引擎 (Docker/Containerd) 和Kubelet组件的空间。如果共享磁盘空间不足,您可以对其进行扩容。 容器引擎空间扩容 Kubelet空间扩容 容器引擎和Kubelet共享磁盘空间扩容 容器引

    来自:帮助中心

    查看更多 →

  • 工作负载异常:实例驱逐异常(Evicted)

    时,则将排空节点速率降为0.01;假如是小规模集群,则将速率直接降为0,即停止驱逐节点上的Pod。 kubelet的eviction机制 如果节点处于资源压力,那么kubelet就会执行驱逐策略。驱逐会考虑Pod的优先级,资源使用和资源申请。当优先级相同时,资源使用/资源申请最大的Pod会被首先驱逐。

    来自:帮助中心

    查看更多 →

  • Containerd节点业务容器标准输出日志写入过快导致节点数据盘使用率过高

    日志输出方式采用容器标准输出,其日志转储由节点上kubelet组件完成,除负责业务容器标准输出日志转储外,kubelet还负责节点上所有容器生命周期的维护操作。 若节点上业务容器过多,业务容器标准日志输出过快,会导致kubelet持续高负荷运行,超过一定限度会出现日志转储,进而日

    来自:帮助中心

    查看更多 →

  • CVE-2020-13401的漏洞公告

    working / plugins#484)会受影响,以下kubelet版本都包含了受影响的CNI插件服务: kubelet v1.18.0~v1.18.3 kubelet v1.17.0~v1.17.6 kubelet<v1.16.11 漏洞分析结果 CCI服务不受本次漏洞影响,原因如下:

    来自:帮助中心

    查看更多 →

  • Docker Engine输入验证错误漏洞公告(CVE-2020-13401)

    com/containernetworking/plugins/pull/484)会受影响,以下kubelet版本都包含了受影响的CNI插件服务: kubelet v1.18.0~v1.18.3 kubelet v1.17.0~v1.17.6 kubelet<v1.16.11 漏洞修复方案 修改主机内核参数配置net

    来自:帮助中心

    查看更多 →

  • 工作负载异常:一直处于创建中

    删除命令示例如下: rm -rf /mnt/paas/kubernetes/kubelet/cpu_manager_state 重启节点或重启kubelet,重启kubelet的方法如下: systemctl restart kubelet 此时重新拉起或创建工作负载,已可成功执行。 解决方式链接

    来自:帮助中心

    查看更多 →

  • 节点预留资源策略说明

    当节点可用内存低于驱逐阈值时,将会触发kubelet驱逐Pod。关于Kubernetes中驱逐阈值的相关信息,请参见节点压力驱逐。 如果节点在kubelet回收内存之前触发操作系统内存不足事件(OOM),系统会终止容器,但是与Pod驱逐不同,kubelet会根据Pod的RestartPolicy重新启动它。

    来自:帮助中心

    查看更多 →

  • 默认数据盘空间分配说明

    存储池不支持扩容。 容器引擎空间分配 对于容器引擎和Kubelet共享磁盘空间的节点,容器存储Rootfs为OverlayFS类型,数据盘空间分配详情请参见容器引擎和Kubelet共享磁盘空间说明。 对于容器引擎和Kubelet不共享磁盘空间的节点,数据盘根据容器存储Rootfs

    来自:帮助中心

    查看更多 →

  • CCE节点上监听的端口列表

    Node节点监听端口 目的端口 协议 端口说明 10248 TCP kubelet健康检查端口 10250 TCP kubelet服务端口,提供节点上工作负载的监控信息和容器的访问通道 10255 TCP kubelet只读端口,提供节点上工作负载的监控信息 动态端口(与宿主机限制的范围有关,比如

    来自:帮助中心

    查看更多 →

  • 默认数据盘空间分配说明

    存储池不支持扩容。 容器引擎空间分配 对于容器引擎和Kubelet共享磁盘空间的节点,容器存储Rootfs为OverlayFS类型,数据盘空间分配详情请参见容器引擎和Kubelet共享磁盘空间说明。 对于容器引擎和Kubelet不共享磁盘空间的节点,数据盘根据容器存储Rootfs

    来自:帮助中心

    查看更多 →

  • 查询Pod日志

    real kubelet. If the kubelet is configured to verify the apiserver's TLS credentials, it does not mean the connection to the real kubelet is vulnerable

    来自:帮助中心

    查看更多 →

  • 动态资源超卖

    25.4-r0以前的版本已经使用kubelet超卖,升级至v1.25.4-r0及以上版本 存量节点池:kubelet超卖 新建节点池:云原生混部资源超卖 对于存量的节点池,推荐将kubelet超卖迁移至云原生混部超卖进行统一管理,详情请参见kubelet超卖迁移至云原生混部超卖说明。

    来自:帮助中心

    查看更多 →

  • CCE突发弹性引擎(对接CCI)

    CCE突发弹性引擎(对接CCI) 插件介绍 Virtual Kubelet是基于社区Virtual Kubelet开源项目开发的插件,该插件支持用户在短时高负载场景下,将部署在CCE上的无状态负载(Deployment)、有状态负载(StatefulSet)、普通任务(Job)三

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了