Netty权威指南_札记01_I/O演进之路

版权声明:士,不可以不弘毅,任重而道远 https://blog.csdn.net/superbeyone/article/details/83749622


1. Linux网络I/O模型

1.1 阻塞 I/O 模型

最常用的I/O模型,缺省情况下,所有的文件操作都是阻塞的。
以套接字接口为例:在进程空间中调用recvfrom,其系统调用知道数据包到达且被复用到应用进程的缓冲区中或者发生错误时才返回,在此期间一直会等待,进程在从调用recvfrom开始到返回的整段时间内都是被阻塞的。

1.2 非阻塞 I/O 模型

recvfrom从应用层到内核的时候,如果该缓冲区没有数据的话,就直接返回一个EWOULDBLOCK错误,一般都对非阻塞I/O进行轮询检查这个状态,看内核是不是有数据到来。

1.3 I/O 复用模型

Linux提供select/poll,进程通过将一个或多个fd(file descriptor,文件描述符)传递给select或poll系统调用,阻塞在select操作上,这样select/poll可以帮我们侦测多个fd是否处于就绪状态。select/poll是顺序扫描fd是否就绪,而且支持的fd数量有限,因此它的使用受到一些制约。Linux还提供了一个epoll系统调用,epoll使用基于事件驱动方式代替顺序扫描,因此性能更高。当有fd就绪时,立刻回调rollback。

1.4 信号驱动 I/O 模型

首先开启套接口信号驱动I/O功能,并通过系统调用sigaction执行一个信号处理函数(此系统调用立即返回,进程继续工作,是非阻塞的)。当数据准备就绪时,就为该进程生成一个SIGIO信号,通过信号回调通知应用程序调用recvfrom来读取数据,并通知主循环函数处理数据。

1.5 异步 I/O

告知内核启动某个操作,并让内核在整个操作完成后(包括将数据从内核复制到自己的缓冲区)通知我们。
与信号驱动模型的主要区别:信号驱动I/O由内核通知我们合适可以开始一个I/O操作;异步I/O模型有内核通知我们I/O操作何时已经完成。

2. I/O多路复用技术

目前支持I/O多路复用的系统调用有selectpselectpollepoll

3. 为了克服select的缺点,epoll作了很多重大改进,总结如下:

3.1 支持一个进程打开的socket描述符(FD)不受限制(仅受限于操作系统的最大文件句柄数)

3.2 I/O效率不会随着FD数目的增加而线性下降

3.3 shiyong mmap加速内核与用户空间的消息传递

3.4 epoll的API更加简单

猜你喜欢

转载自blog.csdn.net/superbeyone/article/details/83749622
今日推荐