当前位置: 首页 > news >正文

Linux 的日志分析命令

前言

熟练掌握 Linux 的日志分析命令是基本功,有助于排查解决问题。

tail 实时监控

对于大文件,cat 会导致屏幕刷屏,还容易把终端卡死。

# -f (follow):实时追加显示文件尾部内容
tail -f logs/application.log
# 只看最后 200 行,并保持实时刷新,避免被历史日志干扰tail -n 200 -f logs/application.log

此时只需要盯着最新的 log 打印就行。

less 按需加载

vim 会一次性加载整个文件占用大量内存,如果文件很大,就会卡住。

less 是按需加载,打开几个 G 的文件也极其流畅,且支持向后回溯。

真实场景:追查某笔客诉订单

运营反馈:刚才 10 点左右,订单号 ORD12345678 支付失败了。

你需要从日志末尾开始,往前反向查找这个订单号。

less logs/application.log

进入界面后的操作流:

  1. Shift + G 先跳到日志最末尾(因为报错通常发生在最近)。
  2. ?ORD12345678 输入问号+订单号,向上反向搜索。
  3. n:如果当前这行不是关键信息,按 n 继续向上找上一次出现的位置。
  4. Shift + F 如果看着看着,日志又更新了,按这个组合键可以让 less 进入类似 tail -f 的实时滚动模式;按 Ctrl + C 退回浏览模式。

grep 关键词搜索

显示上下文报错

# 搜索异常关键字,并显示该行 "前后各 20 行",-C (Context) 参数
grep -C 20 "NullPointerException" logs/application.log

全链路追踪 TraceId

# 搜索当前目录下所有以 app.log 开头的文件
grep "TraceId-20251219001" logs/app.log*

统计异常频次

# -c (count):只统计匹配的行数
grep -c "RedisConnectionException" logs/application.log

排除干扰项

# -v (invert):显示不包含 "HealthCheck" 的所有行
grep -v "HealthCheck" logs/application.log

sed 日志切割

有时候日志非常大,例如有 10GB,grep 搜出来的内容依然过多。

如果我们明确知道生产事故发生在 14:00 到 14:05 之间。

sed 可以帮我们把这段时间的日志单独切出来,保存成一个小文件分析。

# 语法:sed -n '/开始时间/,/结束时间/p' 源文件 > 目标文件
# 注意:时间格式必须和日志里的格式完全一致
sed -n '/2025-12-19 14:00/,/2025-12-19 14:05/p' logs/application.log > error_segment.log

awk 处理列数据

分析 Nginx 日志,找出访问量最高的 IP,假设日志格式第一列是 IP 。

awk '{print $1}' access.log | sort | uniq -c | sort -nr | head -n 10# 1. awk '{print $1}':提取第一列(IP)
# 2. sort:排序,把相同的 IP 排在一起
# 3. uniq -c:去重并统计每个 IP 出现的次数
# 4. sort -nr:按次数(n)倒序(r)排列
# 5. head -n 10:取前 10 名
http://www.jsqmd.com/news/161580/

相关文章:

  • HuggingFace Trainer自定义训练循环:超越默认封装
  • Jenkins升级版本(2.289.3-2.528.3)
  • Turfjs+ECharts:空间分析结果的图表化展示
  • Docker Prune清理系统:释放PyTorch构建产生的冗余数据
  • GitHub Projects项目管理:跟踪PyTorch功能开发进度
  • CNN空洞卷积实现:PyTorch中atrous convolution应用
  • Jupyter Notebook扩展插件:如jupyter-themes美化界面
  • PyTorch分布式DataParallel与DistributedDataParallel对比
  • DiskInfo下载官网之外的选择:监控GPU存储使用状态
  • CUDA Unified Memory统一内存:简化CPU-GPU数据管理
  • 长期投资在波动市场中的优势
  • 课程学期总结
  • CUDA Profiler nsight systems使用:分析PyTorch性能瓶颈
  • 【谐波去噪】基于随机奇异值分解和软阈值的大型数据集中的强大高效谐波去噪研究附Matlab代码
  • virsh启用linux虚拟机+忘记密码的操作
  • 通过SSH密钥免密登录PyTorch开发服务器配置教程
  • 提示工程架构师处理多语言场景的8个常见问题,一一解答!
  • 【信号处理】时序数据中的稀疏辅助信号去噪和模式识别附Matlab代码
  • react相关面试题
  • 相机
  • PyTorch-CUDA-v2.8镜像安装全攻略:轻松配置GPU加速深度学习环境
  • YOLOv5模型蒸馏实战:使用PyTorch压缩大模型
  • 关于注解(Annotation)的详细介绍
  • 清华镜像源替换官方pip源:加速PyTorch安装全过程
  • 数据标准
  • CUDA Occupancy Calculator使用:优化PyTorch核函数配置
  • YOLOv11锚框设计调整:适应不同尺度目标检测
  • 联邦学习在AI原生应用中的5大核心优势与落地实践
  • SSH KeepAlive配置:防止长时间PyTorch训练中断
  • CNN批量归一化实现:PyTorch中BatchNorm层的应用