前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Nginx 日志分享

Nginx 日志分享

作者头像
joshua317
发布2018-04-16 12:05:50
8680
发布2018-04-16 12:05:50
举报
文章被收录于专栏:技术博文技术博文

Nginx 日志对于大部分人来说是个未被发掘的宝藏,总结之前做某日志分析系统的经验,和大家分享一下 Nginx 日志的纯手工分析方式。

Nginx 日志相关配置有 2 个地方:access_log 和 log_format 。

默认的格式:

代码语言:javascript
复制
access_log /data/logs/nginx-access.log;
代码语言:javascript
复制
log_format old '$remote_addr [$time_local] $status $request_time $body_bytes_sent '
'"$request" "$http_referer" "$http_user_agent"';

相信大部分用过 Nginx 的人对默认 Nginx 日志格式配置都很熟悉,对日志的内容也很熟悉。但是默认配置和格式虽然可读,但是难以计算。

Nginx 日志刷盘相关策略可配置:

比如,设置 buffer,buffer 满 32k 才刷盘;假如 buffer 不满 5s 钟强制刷盘的配置如下:

代码语言:javascript
复制
access_log /data/logs/nginx-access.log buffer=32k flush=5s;

这决定了是否实时看到日志以及日志对磁盘 IO 的影响。

Nginx 日志能够记录的变量还有很多没出现在默认配置中:

比如:

请求数据大小:$request_length

返回数据大小:$bytes_sent

请求耗时:$request_time

所用连接序号:$connection

当前连接发生请求数:$connection_requests

Nginx 的默认格式不可计算,需要想办法转换成可计算格式,比如用控制字符 ^A (Mac 下 ctrl+v ctrl+a 打出)分割每个字段。

log_format 的格式可以变成这样:

代码语言:javascript
复制
log_format new '$remote_addr^A$http_x_forwarded_for^A$host^A$time_local^A$status^A'
'$request_time^A$request_length^A$bytes_sent^A$http_referer^A$request^A$http_user_agent';

这样之后就通过常见的 Linux 命令行工具进行分析了:

1.查找访问频率最高的 URL 和次数:

代码语言:javascript
复制
cat access.log | awk -F '^A' '{print $10}' | sort | uniq -c

2.查找当前日志文件 500 错误的访问:

代码语言:javascript
复制
cat access.log | awk -F '^A' '{if($5 == 500) print $0}'

3.查找当前日志文件 500 错误的数量:

代码语言:javascript
复制
cat access.log | awk -F '^A' '{if($5 == 500) print $0}' | wc -l

4.查找某一分钟内 500 错误访问的数量:

代码语言:javascript
复制
cat access.log | awk -F '^A' '{if($5 == 500) print $0}' | grep '09:00' | wc-l

5.查找耗时超过 1s 的慢请求:

代码语言:javascript
复制
tail -f access.log | awk -F '^A' '{if($6>1) print $0}'

假如只想查看某些位:

代码语言:javascript
复制
tail -f access.log | awk -F '^A' '{if($6>1) print $3"|"$4}'

6.查找 502 错误最多的 URL:

代码语言:javascript
复制
cat access.log | awk -F '^A' '{if($5==502) print $11}' | sort | uniq -c

7.查找 200 空白页

代码语言:javascript
复制
cat access.log | awk -F '^A' '{if($5==200 && $8 < 100) print $3"|"$4"|"$11"|"$6}'

8.查看实时日志数据流

代码语言:javascript
复制
tail -f access.log | cat -e 或者 tail -f access.log | tr '^A' '|'

9.统计访问最多的ip

代码语言:javascript
复制
tail -n 10000 access_log | awk '{print $1}'|sort|uniq -c|sort -rn|head -10 | more

10.通过日志查看当天访问次数最多的时间段

代码语言:javascript
复制
tail -n 1000 access_log | awk '{print $4}'|cut -c 14-21 |sort|uniq -c|sort -rn|head -10|more

 11.统计访问最多的url

代码语言:javascript
复制
tail -n 10000 access_log |awk -F '"' '{print $2}'| sort|uniq -c| sort -rn| head -20 | more

或者
cat access_log |awk -F '"' '{print $2}'| sort|uniq -c| sort -rn| head -20 | more

总结

照着这个思路可以做很多其他分析,比如 UA 最多的访问;访问频率最高的 IP;请求耗时分析;请求返回包大小分析;等等。

这就是一个大型 Web 日志分析系统的原型,这样的格式也是非常方便进行后续大规模 batching 和 streaming 计算。

link:http://blog.eood.cn/nginx_logs

想起很早之前zone有人问过nginx日志分析,正好今天看到这篇文章,自己实践了下,觉得不错,分享下:)

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2015-12-29 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
Elasticsearch Service
腾讯云 Elasticsearch Service(ES)是云端全托管海量数据检索分析服务,拥有高性能自研内核,集成X-Pack。ES 支持通过自治索引、存算分离、集群巡检等特性轻松管理集群,也支持免运维、自动弹性、按需使用的 Serverless 模式。使用 ES 您可以高效构建信息检索、日志分析、运维监控等服务,它独特的向量检索还可助您构建基于语义、图像的AI深度应用。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档