当前位置: 首页 > news >正文

K8s Pod频繁被杀,排查发现是资源限制的这个坑

服务部署在K8s上,运行一段时间后Pod就会重启。看日志没有异常,但Pod状态显示OOMKilled

一开始以为是代码内存泄漏,排查了一周,最后发现是K8s资源配置的问题。


问题现象

监控告警:Pod重启次数过多

kubectl get pods NAME READY STATUS RESTARTS AGE order-service-5d4f6c7b8-abc 1/1 Running 15 2d

2天重启了15次。

查看Pod详情

kubectl describe pod order-service-5d4f6c7b8-abc Last State: Terminated Reason: OOMKilled Exit Code: 137

OOMKilled+Exit Code 137= 被系统因为内存超限杀掉了。


排查过程

Step 1:先看资源配置

kubectl get pod order-service-5d4f6c7b8-abc -o yaml | grep -A 10 resources resources: limits: cpu: "2" memory: 2Gi requests: cpu: "1" memory: 1Gi

配置了limits.memory = 2Gi。

Step 2:看实际内存使用

kubectl top pod order-service-5d4f6c7b8-abc NAME CPU(cores) MEMORY(bytes) order-service-5d4f6c7b8-abc 500m 1950Mi

内存用了1950Mi,接近2Gi的限制了。

Step 3:进容器看详情

kubectl exec -it order-service-5d4f6c7b8-abc -- /bin/sh # 查看容器看到的内存限制 cat /sys/fs/cgroup/memory/memory.limit_in_bytes # 2147483648 (2GB) # 查看当前使用 cat /sys/fs/cgroup/memory/memory.usage_in_bytes # 1900000000+ (约1.9GB)

确实快到上限了。

Step 4:分析JVM内存

这是个Java服务,看看JVM配置:

# 查看JVM参数 ps aux | grep java java -Xms1g -Xmx2g -jar app.jar

问题来了:JVM的-Xmx设成了2G,和容器limits一样大!


问题根因

Java在容器中的内存计算

容器的内存限制 ≠ 只给JVM用的内存

容器总内存 = JVM堆内存 + JVM非堆内存 + 操作系统开销 具体来说: - 堆内存(-Xmx) - Metaspace - 线程栈(每个线程1MB左右) - 直接内存(DirectByteBuffer) - JNI - GC开销 - 容器内其他进程

如果-Xmx=2G,container limit也是2G,那堆刚满的时候,加上其他内存,总量就超过2G了,触发OOMKilled。

数据验证

我们服务的实际内存组成:

组成部分大小说明
堆内存(实际使用)1.5G没到-Xmx上限
Metaspace150M类加载
线程栈200M约200个线程
直接内存100MNIO使用
其他100MGC、JNI等
合计约2G超过limit

堆内存还没满,但总内存已经超限了。


解决方案

方案一:调整limits(推荐)

resources: limits: memory: 3Gi # 给足够的余量 requests: memory: 2Gi

一般建议:limits.memory = Xmx + 500M ~ 1G

方案二:调整JVM参数

# 按容器限制的75%设置堆内存 java -Xms1g -Xmx1536m -jar app.jar # 或者用容器感知参数(JDK 8u191+) java -XX:MaxRAMPercentage=75.0 -jar app.jar

MaxRAMPercentage会自动读取容器的内存限制,按比例设置堆大小。

方案三:限制非堆内存

java \ -Xms1g -Xmx1536m \ -XX:MaxMetaspaceSize=256m \ -XX:MaxDirectMemorySize=256m \ -Xss512k \ -jar app.jar
  • -XX:MaxMetaspaceSize:限制Metaspace
  • -XX:MaxDirectMemorySize:限制直接内存
  • -Xss:减小线程栈大小

最终配置

# deployment.yaml resources: limits: cpu: "2" memory: 2560Mi # 2.5G requests: cpu: "1" memory: 2Gi # JVM参数 java \ -XX:MaxRAMPercentage=75.0 \ -XX:InitialRAMPercentage=50.0 \ -XX:MaxMetaspaceSize=256m \ -jar app.jar

改完后再也没重启过。


几个相关的坑

坑1:requests和limits差太多

# 不推荐 requests: memory: 512Mi limits: memory: 4Gi

requests太小会被调度到资源紧张的节点,然后因为实际用量超过节点剩余资源被OOM。

建议:requests设成实际使用量,limits设成峰值+余量。

坑2:不设limits

# 危险 resources: requests: memory: 1Gi # 没有limits

不设limits意味着可以无限使用,可能把节点撑爆,影响其他Pod。

坑3:老版本JDK不认容器限制

JDK 8u131之前的版本不认识cgroup的内存限制,会读取物理机的内存。

解决:升级到JDK 8u191+或JDK 11+,或手动设置-Xmx。


监控和告警

查看Pod历史事件

kubectl describe pod <pod-name> | grep -A 20 Events

查看节点内存压力

kubectl describe node <node-name> | grep -A 5 Conditions

Prometheus监控

# 告警规则 - alert: PodOOMKilled expr: kube_pod_container_status_last_terminated_reason{reason="OOMKilled"} == 1 for: 0m labels: severity: warning annotations: summary: "Pod {{ $labels.pod }} OOMKilled"

远程排查

线上K8s集群通常在内网,出问题需要VPN或跳板机。

我用组网工具提前把笔记本和跳板机组好,在外面也能快速kubectl连上去看情况。比每次找运维开VPN快多了。


排查命令总结

# 查看Pod状态和重启次数 kubectl get pods # 查看重启原因 kubectl describe pod <pod-name> # 查看实时资源使用 kubectl top pod <pod-name> # 进入容器看cgroup限制 kubectl exec -it <pod-name> -- cat /sys/fs/cgroup/memory/memory.limit_in_bytes # 查看JVM内存(Java容器) kubectl exec -it <pod-name> -- jcmd 1 VM.native_memory summary # 查看OOMKilled事件 kubectl get events --field-selector reason=OOMKilling

总结

场景配置建议
Java服务limits = Xmx + 500M~1G
推荐做法用MaxRAMPercentage=75%
requests设成实际使用量
limits设成峰值+余量

K8s的OOMKilled不一定是代码内存泄漏,很可能是资源配置不合理。先看limits和JVM参数是否匹配。

http://www.jsqmd.com/news/216485/

相关文章:

  • C++ 修饰符类型
  • 深度测评8个AI论文写作软件,本科生搞定毕业论文不求人!
  • Z-Image-Turbo灾难恢复:快速重建你的AI绘画服务环境
  • 论文降AI率实用指南:真实案例解析【嘎嘎降AI】与【比话降AI】助力通过知网AIGC检测
  • 论文重复率太高怎么办?真实降重经验分享及【嘎嘎降AI】与【比话降AI】使用解析
  • 2026年Java后端开发最全面试攻略
  • 移动办公新可能:随时随地访问你的Z-Image-Turbo云端创作站
  • 论文降AI率实用指南:真实体验分享【嘎嘎降AI】与【比话降AI】助力知网AIGC检测
  • 电脑丢失或是被盗以后如何保护机密资料不泄露?—SDC沙箱全盘加密方案
  • 【TJU】信息检索与分析课程笔记和练习(8)(9)发现系统和全文获取、专利与知识产权基本知识
  • 阿里通义Z-Image-Turbo风格迁移:快速搭建实验环境
  • 微信小程序字体大小在安卓手机上有限制
  • 论文修改降重实战经验:如何有效降低论文AI率通过知网AIGC检测?
  • 智能包装设计:基于Z-Image-Turbo的快速打样系统
  • 懒人必备!阿里通义Z-Image-Turbo WebUI十分钟快速上手指南
  • 基于python+mysql的宠物领养网站系统源码+运行+计算机科学与技术
  • 如何给论文降重?真实案例分享【嘎嘎降AI】与【比话降AI】助你科学降AI率通过知网检测
  • 【车牌识别】雾霾天气车牌识别【含GUI Matlab源码 14870期】
  • 智能识别之建筑物混凝土缺陷识别 混凝土裂缝识别 栏杆腐蚀铁锈检测 桥梁孔洞识别 材料表面缺陷识别与质检场景 CNN深度学习第10367期
  • 沃尔玛买家号养号指南:从手动操作到AI一键养号
  • 直播电商选对BGM,提升观看与转化:实用音乐素材指南
  • 如何给本科毕业论文有效降重?ai 率三分钟达到个位数
  • 储能质量硬仗:六西格玛培训如何帮工程师打赢制造一致性之战
  • 超实用在线工具推荐:八八盘搜
  • 无障碍访问:为老年人设计的简化版AI图像生成界面
  • 从零到一:快速构建阿里通义Z-Image-Turbo二次开发环境
  • .m3u8文件 m3u8分片 直接转MP4工具
  • 本科毕业论文降重实操指南:如何科学降低论文AI率通过知网AIGC检测?
  • 【道路缺陷检测】道路缺陷检测【含GUI Matlab源码 14871期】
  • 茶饮六小龙掀起EGC整顿风暴