如何解决TCP socket的阻塞问题
目录
- 解决TCP socket的阻塞问题
- 在异常处理程序当中退出socket连接
- TCP连接阻塞的监控和处理
- 我们整理出符合该类异常的特征如下
- 如何查看一个连接的创建时间
解决TCP socket的阻塞问题
大家知道,tcp的读和写是阻塞的,即读的时候不知道什么时候读完,写的时候不知道什么时候写完,因此线程就一直暂停在哪里,一般tcp程序用在上位机下位机之间对吧!
下位机一些设备一般会发心跳报文给我们机器,假设为10s发一次吧,当机器超过10s没接收到数据,那么我们就要考虑把socket断开,因为不断开的话设备重新连接可能又会建立新的socket,这样如果设备反复断开连接的话,将产生大量的socket,占用大量系统资源,这里我们用socket.setSoTimeout(500)方法解决read方法的阻塞问题,同时设定一个标志位
在异常处理程序当中退出socket连接
public void run(){ InputStream is = null; OutputStream os = null; int flag = 0; try { socket.setSoTimeout(500); // 0.5秒就退出read()方法的阻塞 is = socket.getInputStream(); os = socket.getOutputStream(); } catch (Exception e2) { e2.printStackTrace(); } while (true) { try { // 读取数据 int readlen = is.read(buff); if (readlen > 0) { flag = 0; } byte data[] = Arrays.copyOfRange(buff, 0, readlen); resolveData(data); } catch (IOException e) { try { flag++; if (flag == 200) { is.close(); os.close(); socket.close(); } } catch (Exception e1) { e1.printStackTrace(); } } } }
TCP连接阻塞的监控和处理
那么,什么样的TCP连接属于上述发生阻塞的异常连接呢?结合线上运维经验
我们整理出符合该类异常的特征如下
- 该连接的Recv_Q的值特别大(超过3M)
- 该连接的Recv_Q的值持续上涨,造成堆积(在一定滑动时间窗口内)
- 服务端进程已长时间不再处理该连接的请求(超过90秒)
其中Recv_Q的值可以通过netstat或ss系统工具即可进行Recv_Q队列大小的采样,从而进行阀值判断。
netstat 的结果是读取/proc/net/tcp文件而来的.
如何查看一个连接的创建时间
1.nestat -apn | grep xxx查看到对应的连接的进程pid和端口
2. 将上下游端口,转换为16进制xxxa xxxb
3.然后cat /proc/net/tcp | grep -i xxxa | grep -i xxxb找到该socket连接的inode inodex
4.ls -al /proc/pid/fd | grep inodex即可看见该socket文件的创建时间.
以上为个人经验,希望能给大家一个参考,也希望大家多多支持我们。
赞 (0)