前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >2015百度一道面试题引发的思考(shell脚本和网络)

2015百度一道面试题引发的思考(shell脚本和网络)

作者头像
bear_fish
发布2018-09-14 10:45:33
6810
发布2018-09-14 10:45:33
举报

原文    http://blog.csdn.net/chhuach2005/article/details/40044863

前言

        百度2面出了这样一题(前篇博文求职之路中有提到),给你一个log文件,文件中有3列,分别为ip,访问时间, 和访问内容。你用shell脚本找出访问频率最高的10个IP。

        因为平时用shell脚本也就是配置些文件,自动化部署一些软件,突然遇到这个问题。还真不知道怎么弄呢,反正知道要排序,当时就没答出来。回来在网上找了下,网上有很多类似的解答。下面给出几种解答方式,一一道来啊。

一、log格式分析

        就利用ubuntu httpserver 安装配置(apache+mysql+php) 中部署的httpsever产生的log文件,目录为:/var/log/apache2/access.log .log格式如图1所示

图1 httpseverlog格式

二、解答

解答一

shell脚本:cat   /var/log/apache2/access.log | awk -F -  '{print $1}' | sort | uniq -c | sort -rn

或者直接:awk -F -  '{print $1}' /var/log/apache2/access.log | sort | uniq -c | sort -rn

awk -F -  '{print $1}'  是一行中以-为分隔符打印第一列;

sort  排序(默认是升序,降序用sort  -r);

uniq -c 计数并去重(仅去重用uniq即可)

sort -rn 以计数降序排序

结果如图2所示第一列为访问次数 第二列是ip;

图2  找出访问量最大的几个IP

解答二

shell 脚本:cut  -d- -f 1 /var/log/apache2/access.log |sort| uniq -c | sort -rn | head -10

cut -d- -f 1 /var/log/apache2/access.log  其中-d-表示以 - 为分隔符; -f 1表示打印第一列

后面的和解答1都一样 无需解释,结果和解答一完全一样。

三、补充

下面再补充一点啊

1)列出某一ip访问了哪些页面

grep ^223.3.52.172  /var/log/apache2/access.log | awk '{print $1,$7}' | head -30

说明^223.3.52.172 表示以该ip开始的一行,后面的上面都解释过了

结果如图3所示

图3  某一ip访问过的页面

某一页面被访问的次数:grep "/file1"  /var/log/apache2/access.log  | wc -l

ip访问总量 :awk -F -  '{print $1}'  /var/log/apache2/access.log | wc -l 

参考 http://www.jb51.net/article/53954.htm学习并列举一下哈

代码语言:javascript
复制
 1、查看当天有多少个IP访问:
 awk '{print $1}' log_file|sort|uniq|wc -l
 2、查看某一个页面被访问的次数;
 grep "/index.php" log_file | wc -l
 3、查看每一个IP访问了多少个页面:
 awk '{++S[$1]} END {for (a in S) print a,S[a]}' log_file
 4、将每个IP访问的页面数进行从小到大排序:
 awk '{++S[$1]} END {for (a in S) print S[a],a}' log_file | sort -n
 5、查看某一个IP访问了哪些页面:
 grep ^111.111.111.111 log_file| awk '{print $1,$7}'
 6、去掉搜索引擎统计当天的页面:
 awk '{print $12,$1}' log_file | grep ^\"Mozilla | awk '{print$2}' |sort | uniq | wc -l
 7、查看2009年6月21日14时这一个小时内有多少IP访问:
 awk '{print $4,$1}' log_file | grep 21/Jun/2009:14 | awk '{print$2}'| sort | uniq | wc -l
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2014年12月17日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 前言
  • 一、log格式分析
  • 二、解答
    • 解答一
      • 解答二
      • 三、补充
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档