阿里面试问的select、poll、epoll模型的区别

大鱼仙人

共 2838字,需浏览 6分钟

 ·

2022-06-08 10:27


这一篇要说的select、poll、epoll这三个的区别,大家对于IO多路复用都了解吧,这个问题也是面试官最最爱问的问题之一了


           


操作系统在处理IO的时候,主要客源分为两个阶段:

 

等待数据传递到IO设备

 

IO设备将数据复制到用户空间user space

 

也就可以将上述过程简化理解为:

 

等待数据到kernel内核区域

 

kernel内核区域将数据复制到用户区域user space用户区域可以理解为JVM区域,即进程或者线程的缓冲区

 

BIO

 

这是属于最简单的同步阻塞IO模型

 

当应用层有数据过来的时候,会调用recvfrom方法,但是这个时候应用层的数据还没有复制到kernel内核区,也就是上面说的第一个过程,这个过程需要时间,所以recvfrom会阻塞

 

当内核kernel中的数据准备好了之后,recvfrom方法并不会返回,而是会发起一个系统调用将kernel中的数据复制到JVM的进程中的缓冲区中,也就是用户空间user space


当这个复制也完成之后,也就是上面说的两个阶段全部完成之后,recvfrom才会返回并且解除程序的阻塞


默认情况下,所有的文件操作都是阻塞的,在进程调用期间的recvfrom直到数据包达到并且被复制到JVM进程缓冲区或者发生错误的时候才会返回,在此期间一直阻塞

 

在阻塞期间,CPU不能执行IO操作,但是CPU还是可以去做别的事情的,阻塞了,但没有完全阻塞

 

我们再看操作系统处理IO的两个步骤

 

等待数据到kernel内核区域

 

kernel内核区域将数据复制到用户区域user space

 

阻塞IO模型,其实就是把这两个阶段合并在一起,一起阻塞

 

NIO

 

非阻塞其实就是把第一个过程的阻塞变成非阻塞,也就是recvfrom函数会不断的去询问kernel内核区域中的数据是否准备好

 

如果数据没有准备好,就返回EWOULDBLOCK错误,不断的去进行轮询检查,知道发现kernel内核中的数据准备好了,就会返回

 

第二个阶段属于系统调用,是必须阻塞的,就是将数据从kernel内核区域拷贝到用户区域,也就是进程缓冲区中

 

Linux系统将所有设备都当作文件来处理,而Linux用文件描述符fd来标识每个文件对象。

 

问题

 

阻塞模型在没有收到数据的时候就会阻塞卡主,如果一个线程需要接受到多个客户端的socket的fd连接,这样会导致在处理这种情况效率比较低

 

必须处理完前面的所有fd,才可以处理后面的fd,即使后面的fd可能比前面的fd提前准备好了,但是也得等,这样会导致客户端的严重延迟

 

于是为了处理多个请求,有的小伙伴可能会想到用多个线程来改善,可以引入线程池改善这个情况,并且通过线程池的最大数量来控制这个限度,但是这并没有从根本上解决问题

 

应用:适用于针对大量的io请求的情况,对于服务器必须在同时处理来自客户端的大量的io操作的时候,就非常适合

 

 

Select工作流程

 

单个进程可以同时处理多个网络连接的IO请求,就是调用select之后,整个程序就阻塞了

 

此时需要把所有的fd集合都从JVM用户空间拷贝到kernel内核空间,这个开销很大

 

然后去轮询检查所有的select负责的fd,当找到一个client中的数据准备好了之后,select就会返回,此时将数据从kernel复制到进程的缓冲区中

 

缺点:

 

1、每次都需要把fd集合从用户态拷贝到内核态,消耗资源

 

2、每次调用需要进行轮询所有传递进来的fd,也比较消耗资源

 

你想啊,要是有十万个连接,而活跃的只有几个,那每次都要遍历这十万个,岂不是很糟糕

 

3支持的fd数量有限,根据fd_size的定义,它的大小为32个整数大小(32位机器为32*32,所有共有1024bits可以记录fd),每个fd一个bit,所以最大只能同时处理1024fd

 

每一次呼叫select都需要先从 user spaceFD_SET复制到 kernel(约线性时间成本)


为什么 select 不能像epoll一样,只做一次复制就好呢?

 

每一次呼叫 select()前,FD_SET都可能更动,而 epoll 提供了共享记忆存储结构,所以不需要这里的kernel内核区域和用户区域之间的全量数据复制

 

Poll

 

poll的原理与select非常相似,但是呢,有两点的不同之处

 

一个是存储fd的集合不同,select是有限的,而poll的方式存储是链式的,没有最大连接数的限制

 

另一点就是水平触发,也就是通知程序fd就绪后,这次没有被处理,那么下次poll的时候会再次通知同个fd已经就绪

 

Epoll

 

epoll既然是对selectpoll的改进,就应该能避免上述的三个缺点。那epoll都是怎么解决的呢?

 

在此之前,我们先看一下epoll和selectpoll的调用接口上的不同,selectpoll都只提供了一个函数——select或者poll函数。而epoll提供了三个函数,epoll_create,epoll_ctlepoll_wait

 

epoll_create是创建一个epoll句柄;epoll_ctl是注册要监听的事件类型;epoll_wait则是等待事件的产生。

 

对于每次都需要把数据从用户区全量复制到kernel内核区这个缺点,epoll的解决方案在epoll_ctl函数中。

 

每次注册新的事件到epoll句柄中时(在epoll_ctl中指定EPOLL_CTL_ADD),会把所有的fd拷贝进内核,而不是在epoll_wait的时候重复拷贝。epoll保证了每个fd在整个过程中只会拷贝一次。

 

对于第二个每次都需要轮询所有fd这个缺点

 

epoll的解决方案不像selectpoll一样每次都把current轮流加入fd对应的设备等待队列中,而只在epoll_ctl时把current挂一遍(这一遍必不可少)并为每个fd指定一个回调函数,当设备就绪,唤醒等待队列上的等待者时,就会调用这个回调函数,而这个回调函数会把就绪的fd加入一个就绪链表)。

 

epoll_wait的工作实际上就是在这个就绪链表中查看有没有就绪的fd(利用schedule_timeout()实现睡一会,判断一会的效果,和select实现中的第7步是类似的)。

 

把主动权交给了每一个连接,当设备就绪的时候,调用回调函数才会加入到这个就绪的集合

 

对于第三个数量的缺点

 

epoll没有这个限制,它所支持的FD上限是最大可以打开文件的数目,这个数字一般远大于1024,举个例子,1GB内存的机器上大约是10万左右,具体数目可以cat /proc/sys/fs/file-max察看,一般来说这个数目和系统内存关系很大。

 


结束语


赠人玫瑰,手有余香。


哦对了,后续所有的文章都会更新到这里


https://github.com/DayuMM2021/Java








浏览 51
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报