配置 Nginx 自动切割日志 跟 Apache HTTP Server(以下称 Apache)不同的是,Apache 可以将日志输出通过管道的方式进行重新定向,依此来进行自动的日志切割。Nginx 在现今版本上还没能跟 Apache 一样,通过%YY等参数按日期分批创建日志,但是通过给 nginx 进程发送一个特定的信号,可以使 nginx 重新生成日志文件。我们可以定期执行一个 Shell 脚本来切换日志,重新命名或转移,具体的脚本如下: # mv /opt/nginx/logs/access.log /opt/nginx/logs/access_`date +%Y%m%d`.log # killall –s USR1 nginx #使用USR1参数通知Nginx进程切换日志文件 将以上脚本内容保存为文件名为 logcron.sh 存到自定的目录中,例如 /opt/nginx/sbin/logcron.sh 使用 Crontab 让该脚本程序在每天晚上 11 点 59 分自动执行,即可做到按天创建日志。 安装和配置 Awstats 安装之前,必须确认你的服务器上 Perl 的环境已经就绪。 查看当前环境 Perl 版本的命令是 perl –version 我们还需要对 Nginx 的日志格式做个小修改,不然 awstats 将无法进行统计。 例子如下(加粗部分): # vi /opt/nginx/conf/nginx.conf server { listen 80; server_name localhost; location ~ ^/web/ { root /data/web; index index.html; error_log off; charset gb2312; } log_format new_log #格式代称 (注意,如果有多个虚拟主机,代称不能一样) ‘$remote_addr – $remote_user [$time_local] $request ‘ ‘”$status” $body_bytes_sent “$http_referer” ‘ ‘”$http_user_agent” “$http_x_forwarded_for”‘; access_log logs/access.log new_log; #日志生成路径 } 下载最新版本的 awstats 包,下载地址请见文章最后的参考资料。把下载后的 tar 包解压到任意目录中,例: /usr/local/awstats 。然后执行 tools 目录中的 awstats_configure.pl 配置向导,创建一个新的统计。 —–> Check for web server install Enter full config file path of your Web server. Example: /etc/httpd/httpd.conf Example: /usr/local/apache2/conf/httpd.conf Example: c:\Program files\apache group\apache\conf\httpd.conf Config file path (‘none’ to skip web server setup): #> none #因为我们这里用的是 Nginx,所以写 none,跳过。 回车 Your web server config file(s) could not be found. You will need to setup your web server manually to declare AWStats script as a CGI, if you want to build reports dynamically. See AWStats setup documentation (file docs/index.html) —–> Update model config file ‘/usr/local/awstats/wwwroot/cgi-bin/awstats.model.conf’ File awstats.model.conf updated. —–> Need to create a new config file ? Do you want me to build a new AWStats config/profile file (required if first install) [y/N] ? #> y #y 创建一个新的统计配置 回车 —–> Define config file name to create What is the name of your web site or profile analysis ? Example: system.it165.net Example: demo Your web site, virtual server or profile name: #> http://system.it165.net/ #统计网站的域名 例: http://system.it165.net/ 回车 —–> Define config file path In which directory do you plan to store your config file(s) ? Default: /etc/awstats Directory path to store config file(s) (Enter for default): #> 使用默认直接回车,接下来便会出现以下的提示 —-> Add update process inside a scheduler Sorry, configure.pl does not support automatic add to cron yet. You can do it manually by adding the following command to your cron: /usr/local/awstats/wwwroot/cgi-bin/awstats.pl -update -config=www.moabc.net #回头把该命令填入crontab 按指定时间执行 Or if you have several config files and prefer having only one command: /usr/local/awstats/tools/awstats_updateall.pl now Press ENTER to continue… 回车继续 A SIMPLE config file has been created: /etc/awstats/awstats.www.moabc.net.conf #新配置文件所在的路径 You should have a look inside to check and change manually main parameters. You can then manually update your statistics for ‘www.moabc.net’ with command: > perl awstats.pl -update -config=www.moabc.net You can also build static report pages for ‘www.moabc.net’ with command: > perl awstats.pl -output=pagetype -config=www.moabc.net Press ENTER to finish… 回车完成向导,接下来修改 http://www.moabc.net/ 的统计配置 #vi /etc/awstats/awstats.www.moabc.net.conf 找到统计的日志文件的路径 LogFile=”/var/log/httpd/mylog.log” 改为 LogFile=”/opt/nginx/logs/access_%YYYY-0%MM-0%DD-0.log 对应上边 Nginx 日志切割程序的所生成的目录存放结构,要注意 Awstats 的年月日格式的跟 Nginx 的写法有所不同。我们现在执行统计的顺序是: Nginx 产生日志 –> 日志切割 –> Nginx 继续产生日志 –> 另存切割日志 –> 交由Awstats统计 –> 生成结果 在本文中 Awstats 所统计的日志,是已切下来的那部分。也能调转顺序,先统计完了再切。不过这比较容易造成统计的遗漏。配置修改完成后,保存退出。然后我们可以开始试一下手动执行。 先执行日志切割脚本 logcron.sh 把 Nginx 的日志切下来。 然后执行 Awstats 日志更新程序开始统计分析。 # /opt/nginx/sbin/logcron.sh # /usr/local/awstats/wwwroot/cgi-bin/awstats.pl -update -config=www.moabc.net Create/Update database for config “/etc/awstats/awstats.www.moabc.net.conf” by AWStats version 6.7 (build 1.892) From data in log file “/opt/nginx/logs/access_20080804.log”… Phase 1 : First bypass old records, searching new record… Direct access after last parsed record (after line 450421) Jumped lines in file: 450421 Found 450421 already parsed records. Parsed lines in file: 120 Found 0 dropped records, Found 0 corrupted records, Found 0 old records, Found 120 new qualified records. (责任编辑:IT) |