awk命令分析apache日志文件的一些例子,通过日志查看当天ip连接数,当天ip连接数最高的ip地址,查看某一时间段的ip连接数,用awk分析apache日志非常方便。 awk分析apache日志文件
1、通过日志查看当天ip连接数,过滤重复:
cat access_log | grep "20/Oct/2008" | awk '{print $2}' | sort | uniq -c | sort -nr
2、当天ip连接数最高的ip都在干些什么(原来是蜘蛛):
cat access_log | grep "20/Oct/2008:00" | grep "122.102.7.212" | awk '{print $8}' | sort | uniq -c | sort -nr | head -n 10
3、查看apache进程:
ps aux | grep httpd | grep -v grep | wc -l
4、查看80端口的tcp连接:
netstat -tan | grep "ESTABLISHED" | grep ":80" | wc -l
5、当天访问页面排前10的url:
cat access_log | grep "20/Oct/2008:00" | awk '{print $8}' | sort | uniq -c | sort -nr | head -n 10
6、用tcpdump嗅探80端口的访问看看谁最高
tcpdump -i eth0 -tnn dst port 80 -c 1000 | awk -F"." '{print $1"."$2"."$3"."$4}' | sort | uniq -c | sort -nr
从日志结果中查看指定IP地址的访问内容:
cat access_log | grep 122.102.7.212| awk '{print $1"\t"$8}' | sort | uniq -c | sort -nr | less
7、查看某一时间段的ip连接数:
grep "2006:0[7-8]" www20060723.log | awk '{print $2}' | sort | uniq -c| sort -nr | wc -l
以上分析日志使用cat命令,执行时间比较长。
以下采用awk数组,执行效率高了很多:
awk '{++S[$2]} END {for (a in S) print S[a],a}' access_log | sort -rn | head -n 10
(责任编辑:IT) |