有个应用就是每次都会去查一个接口,接口返回用户的信息数据,从而展现不同的页面效果。大致流程如下
应用APP(电信)-> 应用APP(网通)-> 网通custom接口 -> slave-db 接口环境是php(cgi) + nginx,接口已经运行很久,未出过异常
应用访问custom接口,然后接口去查数据库(数据库是主从复制,数据同步,各自机房读各自的数据库,写的话都写master-db) 有一点,就是电信机房是有memcache层的,而网通机房一直没有(考虑到网通机房流量不高,并且机房cache不同步,从上线起就网通机房一直未使用cache) 有一次上线,这个上线的版本有个改动就是把电信机房的memcache也取消了,然后电信机房流量暴增
看pv统计: $ “find /path -name ‘access*’|xargs wc -l|awk ‘END{print$1}’” fe cmd :find /path ‘access*’|xargs wc -l|awk ‘END{print }’ type:fe
server1 2倍A total(28号是Atotal) ———– server2 2倍B(28号是B total) ———– server3
C ———– server4 D total ….
other servers ….
网通机房流量一直比较稳定左右,从未出任何问题
就是昨天电信custom接口流量暴增后,出现了异常,电信机房机器负载涨了40多倍,QPS涨了15倍 应用也报了短暂的超时警报,不过php和nginx运行还是比较蛋定,重启依然非常快,终端也没有出现很卡的情况
流量是前一天的9倍!
异常就是error.log在上线后飙到3个G!!! 而且错误全都是Can’t connect to MySQL server on ’1.1.1.1′ (99)
即便在命令行下用mysql -hx.x.x.x 也间歇性地连接不上,但是据dba描述,数据库监控无任何异常,数据库上其他部门的应用也无异常 不知是否机器负载过高导致大量time wait,导致mysql连接超时或连接不上
以下是晚上0点13分的监控: TIME_WAIT 涨了300倍(不知是否和他有关) ESTABLISHED 涨了10倍
按理说,custom的网通接口流量非常稳定,从未出现过异常,电信机房接口飙了2倍就抗不住了,load直线上升, 为了排除cache引起的流量导致接口异常,22:30左右重新上了2个文件,把电信机房的memcache重新开启, 开启后慢慢load是降了,但是mysql错误依旧只是没那么多了 现在去机器上看,还是大量错误,提取日志如下
FastCGI sent in stderr: “PHPWarning:
后来跟dba不断沟通排查,发现电信机房和网通机房的/etc/sysctl.conf配置有所区别 网通机房多了下面几行 net.ipv4.tcp_syncookies =1 net.ipv4.tcp_tw_reuse = 1 net.ipv4.tcp_tw_recycle =1 net.ipv4.tcp_fin_timeout= 5
原因就在这,把配置同步到杭电信机房后,问题就解决了,总结如下:
|