专栏首页咻一咻最全的nginx日志统计分析

最全的nginx日志统计分析

统计PV,UV数

  1. 统计所有的PV数
cat access.log | wc -l
  1. 统计当天的PV数
cat access.log | sed -n /`date "+%d\/%b\/%Y"`/p | wc -l
  1. 统计指定某一天的PV数
cat access.log | sed -n '/20\/Aug\/2019/p' | wc -l
  1. 根据访问IP统计UV
awk '{print $1}' access.log|sort | uniq -c |wc -l
  1. 统计指定某一天访问IP统计UV
cat access.log | grep "07/Apr/2019:0[4-5]" | awk '{print $1}' access.log|sort | uniq -c |wc -l

IP相关统计

  1. 统计IP访问量(独立ip访问数量)
awk '{print $1}' access.log | sort -n | uniq | wc -l
  1. 查看某一时间段的IP访问量(4-5点)
grep "07/Apr/2019:0[4-5]" access.log | awk '{print $1}' | sort | uniq -c| sort -nr | wc -l
  1. 查看访问最频繁的前100个IP
awk '{print $1}' access.log | sort -n |uniq -c | sort -rn | head -n 100
  1. 查看访问100次以上的IP
awk '{print $1}' access.log | sort -n |uniq -c |awk '{if($1 >100) print $0}'|sort -rn
  1. 查询某个IP的详细访问情况,按访问频率排序
grep '127.0.01' access.log |awk '{print $7}'|sort |uniq -c |sort -rn |head -n 100

页面访问统计

  1. 查看访问最频的页面(TOP100)
awk '{print $7}' access.log | sort |uniq -c | sort -rn | head -n 100
  1. 查看访问最频的页面([排除php页面】(TOP100)
grep -v ".php"  access.log | awk '{print $7}' | sort |uniq -c | sort -rn | head -n 100 
  1. 查询访问最频繁的URL
awk '{print $7}' access.log|sort | uniq -c |sort -n -k 1 -r|more
  1. 查看页面访问次数超过100次的页面
cat access.log | cut -d ' ' -f 7 | sort |uniq -c | awk '{if ($1 > 100) print $0}' | less
  1. 查看最近1000条记录,访问量最高的页面
tail -1000 access.log |awk '{print $7}'|sort|uniq -c|sort -nr|less

每秒每分钟每小时请求量统计

  1. 统计每秒的请求数,top100的时间点(精确到秒)
awk '{print $4}' access.log |cut -c 14-21|sort|uniq -c|sort -nr|head -n 100
  1. 统计每分钟的请求数,top100的时间点(精确到分钟)
awk '{print $4}' access.log |cut -c 14-18|sort|uniq -c|sort -nr|head -n 100
  1. 每小时的请求数,top100的时间点(精确到小时)
awk '{print $4}' access.log |cut -c 14-15|sort|uniq -c|sort -nr|head -n 100

性能分析

*在nginx log中最后一个字段加入$request_time

  1. 列出传输时间超过 3 秒的页面,显示前20条
cat access.log|awk '($NF > 3){print $7}'|sort -n|uniq -c|sort -nr|head -20
  1. 列出php页面请求时间超过3秒的页面,并统计其出现的次数,显示前100条
cat access.log|awk '($NF > 1 && $7~/\.php/){print $7}'|sort -n|uniq -c|sort -nr|head -100

蜘蛛抓取统计

  1. 统计蜘蛛抓取次数
grep 'Baiduspider' access.log |wc -l
  1. 统计蜘蛛抓取404的次数
grep 'Baiduspider' access.log |grep '404' | wc -l

TCP连接统计

  1. 查看当前TCP连接数
netstat -tan | grep "ESTABLISHED" | grep ":80" | wc -l
  1. 用tcpdump嗅探80端口的访问看看谁最高
tcpdump -i eth0 -tnn dst port 80 -c 1000 | awk -F"." '{print $1"."$2"."$3"."$4}' | sort | uniq -c | sort -nr

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • linux系统日志管理详解

    日志文件记录了时间,地点,人物,事件四大信息,故系统出现故障时,可以查询日志文件。 系统的日志文件默认都集中放置到/var/log/目录内,其中又以mes...

    咻一咻
  • Linux服务器时间同步

    咻一咻
  • LAMP实现编译安装FPM模式wordpress

    Linux+Apache+Mysql/MariaDB+Perl/PHP/Python一组常用来搭建动态网站或者服务器的开源软件,本身都是各自独立的程序,但是因为...

    咻一咻
  • Linux Shell命令速查表

    使用 awk 从 Nginx 日志中逐行统计 URL 访问计数,然后使用 sort 对结果进行排名

    憧憬博客
  • 【IP相关统计】Nginx Access Log日志统计分析常用命令

    java乐园
  • 性能工具之linux常见日志统计分析命令

    在上文中性能工具之linux三剑客awk、grep、sed详解,我们已经详细介绍 linux 三剑客的基本使用,接下来我们看看具体在性能测试领域的运用,本文主要...

    高楼Zee
  • Nginx日志常用统计分析命令

    在nginx log中最后一个字段加入$request_time 列出传输时间超过 3 秒的页面,显示前20条

    神秘的寇先森
  • Nginx 分析access日志文件

    超蛋lhy
  • 性能测试之nginx访问日志分析

      简单来说awk就是把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分再进行各种分析处理。

    cctester
  • SAP CRM WebClient UI交互式报表的Gross Value工作原理

    SAP CRM WebClient UI交互式报表(Interactive Report)的Gross Value工作原理

    Jerry Wang

扫码关注云+社区

领取腾讯云代金券