tomcat7.0.26的连接数控制bug的问题排查

今儿线上一台机器,监控一直在告警,

mtophost[CM3] mtop010096235038.cm3 status.taobao (State:1)State:1.0

一看是健康检查不通过,就上去查看,

 

首先自己curl了下应用的url,果然是超时没有响应,那就查了

1、 load非常低,2gc也正常,3、线程上也没死锁,4、日志一切正常。那是什么情况呢,不能忘记网络啊

 

果然,netstat命令一把,结果如下:

TIME_WAIT 68

CLOSE_WAIT 194

ESTABLISHED 3941

SYN_RECV 100

问题出来了,SYN_RECV竟然达到100个,正常情况下,半连接的请求应该是很小的。而且我们机器是内部的,不是lvs,不太会

有半连接攻击,怎么可能达到这么大呢?

grep SYN_RECV的连接,看到全部都是nginx在连接这台mtop机器,那接下来就dump tcp包看看了

 

 

 

一看一堆堆的wjasmtop发起SYN连接请求,可是mtop机器是绝大部分没回应,只有极少的mtop机器syn+ack

,wjas一天向mtop发起了近20亿的健康检查请求,够多的,所以没有外部流量时,还是有一大堆的http请求到应用上。

 

看系统信息,内核是2.6.32-220.23.2.ali1113.el5.x86_64的,半连接队列的长度是128

http://www.piao2010.com/linux%E8%AF%A1%E5%BC%82%E7%9A%84%E5%8D%8A%E8%BF%9E%E6%8E%A5syn_recv%E9%98%9F%E5%88%97%E9%95%BF%E5%BA%A6%E4%BA%8C

不同的内核,半连接队列长度算法稍有不同

 

可见是mtop半连接队列满了,不再接受新的tcp连接,导致请求没有响应了,但应用其实很空闲。

 

问题表现很清楚了,接下来就是各种怀疑了

因为这机器为解决之前tcnativecrash bug,刚切换成了nio模式、又昨天我手贱,在上面搞过btracealiperf。自己也成嫌疑

 

但这是半连接队列满,要么受到半连接攻击(排除,内网不太可能有半连接攻击),要么是Accept线程没有及时处理,应用没有接收连接的请求,导致三次握手后的队列连接满再引起半连接队列满了。(总结起来好像很有逻辑,排查的时候没那么明确的,还在想各种可能)

 

 

我们知道,tomcat有一个Acceptor线程,监听在端口上,在收到连接请求后,会立刻把请求交个后面线程池处理,bio是直接拿线程等待数据,nioapr会在poller线程上注册监听,也就是select模式,底层再基于epoll事件触发(和nginx的处理模式有点区别)。那就是这个Acceptor线程难道停止了。。。

 

查看堆栈信息,果然

 

当前的这个acceptor已经被禁用了,需要唤醒,多次dump线程,发现此线程一直是次状态,这就解释了为什么了

 

马上查看tomcat源码,发现此代码是在tomcat的连接数(nio)达到1w的时候,会park当前线程,再请求处理后,会再唤醒,继续接受新的连接

Btrace了一把,果然这个连接数值是1w

但什么情况下,会导致这个值那么大,一直把线程暂停呢?按说如果要达到这么大的连接,我们的T4机器早就鸡飞狗跳了

 

Google一把,https://issues.apache.org/bugzilla/show_bug.cgi?id=53173

原来是tomcat7.0.27之前的bug,我们使用的刚好是7.0.26.中枪了,不管是niobioapr,都存在这个问题

 

当接受连接,出现异常时候,旧版本没有把这个数组减少,这时候就拼人品了,如果异常的请求累积,达到连接的最大值,就发生机器很闲,

tcp的连接队列与半连接队列满的情况了

 

tomcat7.0.28修复了此问题

http://tomcat.apache.org/tomcat-7.0-doc/changelog.html#Tomcat_7.0.28_(markt)

 

 

 

1、如有遇到此类似情况,可看看是否这原因

2、当最新版的jar或者容器稳定后,早点升级吧,特别是bug修复

3、提供一次问题排查的参考

猜你喜欢

转载自san-yun.iteye.com/blog/2053757