网络 IO 模型简单介绍 (2)

select 是一个主动模型,需要线程自己通过一个集合存放所有的 Socket,然后发生 I/O 变化的时候遍历。在 select 模型下,操作系统不知道哪个线程应该响应哪个事件,而是由线程自己去操作系统看有没有发生网络 I/O 事件,然后再遍历自己管理的所有 Socket,看看这些 Socket 有没有发生变化。

poll 提供了更优质的编程接口,但是本质和 select 模型相同。因此千级并发以下的 I/O,你可以考虑 select 和 poll,但是如果出现更大的并发量,就需要用 epoll 模型。

select 支持的文件描述符数量默认是1024;poll 没有最大连接数限制,因其基于链表存储。

select 和 poll 的主动式的 I/O 多路复用,对负责 I/O 的线程压力过大,因此通常会设计一个高效的中间数据结构作为 I/O 事件的观察者,线程通过订阅 I/O 事件被动响应,这就是响应式模型。在 Socket 编程中,最适合提供这种中间数据结构的就是操作系统的内核,事实上 epoll 模型也是在操作系统的内核中提供了红黑树结构。

epoll 模型在操作系统内核中提供了一个中间数据结构,这个中间数据结构会提供事件监听注册,以及快速判断消息关联到哪个线程的能力(红黑树实现,文件描述符构成了一棵红黑树,而红黑树的节点上挂着文件描述符对应的线程、线程监听事件类型以及相应程序)。因此在高并发 I/O 下,可以考虑 epoll 模型,它的速度更快,开销更小。

中间观察者需要一个快速能插入(注册过程)、查询(通知过程)一个整数(Socket 的文件描述符)的数据结构。综合来看,能够解决这个问题的数据结构中,跳表和二叉搜索树都是不错的选择。

tips: 一文搞懂select、poll和epoll区别

四、异步非阻塞IO(AIO)

网络 IO 模型简单介绍

当用户线程调用了 read 系统调用,用户线程立刻就能去做其它的事,用户线程不阻塞。

内核(kernel)就开始了 IO 的第一个阶段:准备数据,当 kernel 一直等到数据准备好了,它就会将数据从 kernel 内核缓冲区,拷贝到用户缓冲区(用户内存)。

然后,kernel 会给用户线程发送一个信号(signal),或者回调用户线程注册的回调接口,告诉用户线程 read 操作完成了。

用户线程读取用户缓冲区的数据,完成后续的业务操作。

AIO 的特点:

在内核 kernel 的等待数据和复制数据的两个阶段,用户线程都不是 block 的。

用户线程需要接受 kernel 的 IO 操作完成的事件,或者说注册 IO 操作完成的回调函数到操作系统的内核,因此,异步 IO 有的时候也叫做信号驱动 IO。

AIO 的缺点:需要完成事件的注册与传递,这里边需要底层操作系统提供大量的支持,去做大量的工作。

目前来说, Windows 系统下通过 IOCP 实现了真正的异步 I/O,但是,就目前的业界形式而言,Windows 系统,很少作为百万级以上或者说高并发应用的服务器操作系统来使用。

而在 Linux 系统下,异步 IO 模型在2.6版本才引入,目前并不完善。所以,这也是在 Linux 下,实现高并发网络编程时都是以 IO 复用模型模式为主。(https://github.com/netty/netty/issues/2515)

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zwdszx.html