当前位置: 首页 > news >正文

CloudWatch 告警实战:CPU 飙了自动扩容,账单超了 Slack 通知

上周五晚上 11 点,手机响了——线上服务 CPU 飙到 95%,用户开始投诉卡顿。 等我打开电脑登上服务器,已经过去 15 分钟了。手动扩了一台实例,又花了 5 分钟。整个故障影响了将近 20 分钟。 后来我花了一个下午搭了一套 CloudWatch 告警 + 自动响应系统。现在 CPU 超过 80% 自动扩容,账单超预算自动 Slack 通知。零人工干预,睡觉都踏实了。 这篇记录下具体怎么搞的。 ## 先搞清楚 CloudWatch 的基本套路 CloudWatch 是亚马逊云科技的监控服务,核心就三件事: 1. **收指标**(Metrics)— EC2 的 CPU、内存、磁盘;Lambda 的调用次数、错误率;RDS 的连接数 2. **设告警**(Alarms)— 指标超阈值就触发 3. **做动作**(Actions)— 触发后干嘛:发通知、自动扩容、跑 Lambda 画个图就是这样: ``` 指标超阈值 → CloudWatch Alarm → SNS Topic → Lambda/Email/Slack ↓ Auto Scaling Action ``` ## 场景一:CPU 超 80% 自动扩容 ### 前提 假设你有一个 Auto Scaling Group(ASG),里面跑着 2-6 台 EC2 实例。 ### 第一步:创建扩容策略 ```python import boto3 autoscaling = boto3.client('autoscaling', region_name='ap-northeast-1') # 创建扩容策略:加 1 台实例 response = autoscaling.put_scaling_policy( AutoScalingGroupName='my-web-asg', PolicyName='scale-out-on-high-cpu', PolicyType='SimpleScaling', AdjustmentType='ChangeInCapacity', ScalingAdjustment=1, Cooldown=300 # 扩容后 5 分钟内不重复扩 ) scale_out_arn = response['PolicyARN'] print(f'扩容策略 ARN: {scale_out_arn}') ``` ### 第二步:创建 CloudWatch 告警 ```python cloudwatch = boto3.client('cloudwatch', region_name='ap-northeast-1') cloudwatch.put_metric_alarm( AlarmName='high-cpu-alarm', AlarmDescription='CPU 超过 80% 持续 3 分钟,自动扩容', MetricName='CPUUtilization', Namespace='AWS/EC2', Statistic='Average', Period=60, # 每 60 秒采样一次 EvaluationPeriods=3, # 连续 3 个周期都超阈值才触发 Threshold=80.0, ComparisonOperator='GreaterThanThreshold', Dimensions=[ { 'Name': 'AutoScalingGroupName', 'Value': 'my-web-asg' } ], AlarmActions=[scale_out_arn], # 触发扩容策略 Unit='Percent' ) print('告警创建完成') ``` 关键参数解释: - `Period=60` + `EvaluationPeriods=3`:连续 3 分钟 CPU > 80% 才触发。避免瞬时毛刺误触发。 - `Cooldown=300`:扩容后 5 分钟内不会再次扩容。新实例需要时间启动和加入负载均衡。 ### 缩容也别忘了 流量下来后要自动缩容,不然一直跑着白花钱: ```python # 缩容策略 response = autoscaling.put_scaling_policy( AutoScalingGroupName='my-web-asg', PolicyName='scale-in-on-low-cpu', PolicyType='SimpleScaling', AdjustmentType='ChangeInCapacity', ScalingAdjustment=-1, Cooldown=300 ) scale_in_arn = response['PolicyARN'] # CPU 低于 30% 持续 10 分钟,缩容 cloudwatch.put_metric_alarm( AlarmName='low-cpu-alarm', AlarmDescription='CPU 低于 30% 持续 10 分钟,自动缩容', MetricName='CPUUtilization', Namespace='AWS/EC2', Statistic='Average', Period=60, EvaluationPeriods=10, Threshold=30.0, ComparisonOperator='LessThanThreshold', Dimensions=[ { 'Name': 'AutoScalingGroupName', 'Value': 'my-web-asg' } ], AlarmActions=[scale_in_arn], Unit='Percent' ) ``` 缩容的判定条件比扩容松——10 分钟而不是 3 分钟。因为缩容比扩容风险大,误缩容会导致服务抖动。 ## 场景二:账单超预算 Slack 通知 这个更实用。每个月云上花了多少钱,超预算了马上通知。 ### 第一步:创建 SNS 主题 ```python sns = boto3.client('sns', region_name='us-east-1') # 账单指标只在 us-east-1 # 创建通知主题 topic = sns.create_topic(Name='billing-alerts') topic_arn = topic['TopicArn'] # 订阅邮件(先用邮件测试,后面换 Slack) sns.subscribe( TopicArn=topic_arn, Protocol='email', Endpoint='your-email@example.com' ) print(f'Topic ARN: {topic_arn}') # 注意:邮件订阅需要厷邮箱点确认链接 ``` ### 第二步:设置账单告警 ```python cloudwatch_billing = boto3.client('cloudwatch', region_name='us-east-1') cloudwatch_billing.put_metric_alarm( AlarmName='monthly-bill-over-100', AlarmDescription='当月账单超过 $100 告警', MetricName='EstimatedCharges', Namespace='AWS/Billing', Statistic='Maximum', Period=21600, # 6 小时检查一次 EvaluationPeriods=1, Threshold=100.0, ComparisonOperator='GreaterThanThreshold', Dimensions=[ { 'Name': 'Currency', 'Value': 'USD' } ], AlarmActions=[topic_arn], Unit='None' ) print('账单告警设置完成') ``` 踩坑提醒: - 账单指标*只存在 us-east-1 区域,,不管你的资源在哪个区。 - 需要先在控制台开启账单告警:Billing → Billing Preferences → Receive Billing Alerts。 - `EstimatedCharges` 是当月累讱预估值,不是每天的增量。 ### 第三步:接入 Slack 邮件通知太容易漏看了。接 Slack 更实时。 用一个 Lambda 函数做转发: ```python # lambda_function.py — 部署到 Lambda import json import urllib.request SLACK_WEBHOOK_URL = 'https://hooks.slack.com/services/YOUR/WEBHOOK/URL' def lambda_handler(event, context): # 从 SNS 消息中提取告警信息 message = event['Records'][0]['Sns']['Message'] # 解析 CloudWatch 告警详情 try: alarm = json.loads(message) alarm_name = alarm.get('AlarmName', 'Unknown') new_state = alarm.get('NewStateValue', 'Unknown') reason = alarm.get('NewStateReason', '') text = f"🚨 *CloudWatch Alert*\n" text += f"*告警名称:* {alarm_name}\n" text += f"*状态:* {new_state}\n" text += f"*原因:* {reason[:200]}" except: text = f"⚠️ CloudWatch 告警:\n{message[:500]}" # 发送到 Slack payload = json.dumps({'text': text}).encode('utf-8') req = urllib.request.Request( SLACK_WEBHOOK_URL, data=payload, headers={'Content-Type': 'application/json'} ) urllib.request.urlopen(req) return {'statusCode': 200} ``` 然后让 SNS 触发这个 Lambda: ```python # 订阅 Lambda 到 SNS 主题 sns.subscribe( TopicArn=topic_arn, Protocol='lambda', Endpoint='arn:aws:lambda:us-east-1:123456789012:function:slack-notifier' ) ``` ## 场景三:自定义指标蝑控 CloudWatch 不只能监控亚马逊云科技自带的指标。你的业务指标也能推上去 枯如监控 API 响应时间: ```python cloudwatch.put_metric_data( Namespace='MyApp/API', MetricData=[ { 'MetricName': 'ResponseTime', 'Value': 235.5, 'Unit': 'Milliseconds', 'Dimensions': [ { 'Name': 'Endpoint', 'Value': '/api/v1/users' } ] } ] ) ``` 在你的 API 代码里每次请求结束后推一个数据点,然后对这个自定义指标论告警/�� ```python cloudwatch.put_metric_alarm( AlarmName='api-slow-response', AlarmDescription='API 响应时间趇凇 1 秒', MetricName='ResponseTime', Namespace='MyApp/API', Statistic='Average', Period=60, EvaluationPeriods=5, Threshold=1000.0, ComparisonOperator='GreaterThanThreshold', Dimensions=[ { 'Name': 'Endpoint', 'Value': '/api/v1/users' } ], AlarmActions=[topic_arn], Unit='Milliseconds' ) ``` ## 成本 CloudWatch 的定价其实挲便宜: | 项目 | 免费额度 | 超出价格 | |------|----------|-----------| | 基础监控(5 分钟间隔)| 所有 EC2 免费 | — | | 详细盟掤(1 分钟间隔)| — | $0.30/实例/月 | | 告警� 前 10 个免费 | $0.10/告警/月 | |0�自定义指标 | — | $0.30/指标/月 | | API 调用 | 前 100 万次免费 | $0.01/千次 | 一般中小项目,10 个告警 + 几个自定义指标,每月不到 $5。 ## 我的告警清单 跑了一段时间后,总结出这些告警是必须有的: | 告警 | 阈值 | 为什么 | |------|------|--------| | CPU > 80% | 连续 3 分钟 | 扩容信号 | | CPU < 30% | 连续 10 分钟 | 缩容省钱 | | 磁盘 > 85% | 连续 5 分钟 | 磁盘满了服务会挂 | | 内存 > 90% | 连续 5 分钟 | OOM 前告警 | | 5xx 错误 > 1% | 连续 2 分钟 | 服务异常 | | API P99 > 2s | 连续 5 分钟 | 用户体验恶化 | | 月账单 > 预算 80% | 6 小时检查 | 避免月底惊喜 | | Lambda 错误率 > 5% | 连续 3 分钟 | 函数异常 | ## 踩坑总结 1. **账单指标只在 us-east-1** — 这个坑很多人都踩过,在其他区域创建账单告警会发现没有指标数据。 2. **告警状态有三种** — OK、ALARM、INSUFFICIENT_DATA。新建的告警初始状态是 INSUFFICIENT_DATA,不代表有问题。 3. **内存指标需要 CloudWatch Agent** — EC2 默认不推送内存使用率,需要安装 CloudWatch Agent。 4. **告警名称全局唯一** — 同一个账号同一个区域内不能重名。建议用 `{环境}-{服务}-{指标}` 的命名规范。 5. **SNS 邮件订阅要确认** — 创建订阅后必须去邮箱点确认链接,否则收不到通知。 以上代码基于亚马逊云科技 CloudWatch + Auto Scaling + SNS + Lambda,Python boto3 验证通过。 --- > 📌 CloudWatch 免费套餐包含 10 个告警、100 万次 API 调用和所有 EC2 基础监控(5 分钟间隔),入门阶段完全够用。 > 🔗 CloudWatch 文档:https://docs.aws.amazon.com/cloudwatch/
http://www.jsqmd.com/news/524333/

相关文章:

  • 2026年水泥预制烟道厂家实力推荐榜:矩形/机制/装配式/锅炉专用烟道,精选耐用建材与专业工艺解析 - 品牌企业推荐师(官方)
  • 2026年3月郑州搬家公司最新推荐:金水区搬家、上街区搬家、惠济区搬家、荥阳搬家、新密搬家、新郑搬家公司选择指南 - 海棠依旧大
  • 2026年体育学论文降AI率工具推荐:运动训练方向同学看过来
  • 论文写作新利器:书匠策AI,让数据分析“智”在必得!
  • Electron应用安装包定制指南:如何用NSH脚本打造个性化安装界面(附完整代码示例)
  • 川内制造业短期工招聘服务品牌评测报告:就近安排找工作/工厂劳务外包派遣/工厂劳务派遣外包/工厂直招找工作/当天入职劳务派遣/选择指南 - 优质品牌商家
  • 省电神器!STM32G030的ADC低功耗采样方案:TIMER+DMA+HAL库全配置指南
  • 书匠策AI:论文数据分析的“超级外挂”,让科研之路畅通无阻
  • PD-L1重组兔单抗如何助力肿瘤免疫治疗的机制研究与疗效评估?
  • 2026化妆品源头工厂趋势:从规模到价值的跃迁 - 速递信息
  • # 发散创新:用 WebSocket 实现实时聊天系统的全链路架构设计
  • 企业在豆包做AI推广联系哪家公司?专业服务商深度解析 - 品牌2026
  • vxe-table列头合并避坑指南:从基础配置到高级动态调整
  • 8大需求分析软件选型指南:2026文档自动化新趋势解读
  • # 20253202 2025-2026-2 《Python程序设计》实验1报告
  • 基于太赫兹时域光谱的烟草含水量与厚度深度学习识别模型
  • 20252211 2025-2026-2 《Python程序设计》实验1报告
  • Ollama 非C盘部署
  • 避坑指南:Windows搭建Turn服务器常见问题及解决方案
  • 【灵神题单·贪心】3010. 将数组分成最小总代价的子数组 I | Java
  • 成都施工吊篮租赁优选指南适配多场景需求:成都工地吊篮租赁/成都建筑吊篮租赁/成都施工吊篮租赁/成都电动吊篮租赁/选择指南 - 优质品牌商家
  • CSS3文字闪烁效果实战:3种方法让你的网页标题更吸睛(附完整代码)
  • 汇编指令机器码速查手册:从MOV到JMP,一网打尽(附PDF下载)
  • 豆包推广效果怎么样?如何联系专业豆包AI广告服务商? - 品牌2026
  • 突破网页复制限制:三种实用方法助你轻松获取文字与图片(第三种方法最便捷)
  • 2026手游联运平台系统推荐榜:H5联运平台系统、手游平台sdk、手游平台源码、手游平台系统、手游联运平台系统选择指南 - 优质品牌商家
  • 大厂千万级数据量 Redis 缓存该如何设计?学费了
  • WannaCry勒索病毒传播机制深度剖析:从漏洞利用到蠕虫扩散的全链路解析 | 技术实战
  • 20252910 2025-2026-2《网络攻防实践》第二周作业
  • 3.22 OJ