LT和ET模式
在一个非阻塞的socket上调用read/write函数, 返回EAGAIN或者EWOULDBLOCK(注: EAGAIN就是EWOULDBLOCK)
从字面上看, 意思是:EAGAIN: 再试一次,EWOULDBLOCK: 如果这是一个阻塞socket, 操作将被block,perror输出: Resource temporarily unavailable
总结:
这个错误表示资源暂时不够,能read时,读缓冲区没有数据,或者write时,写缓冲区满了。遇到这种情况,如果是阻塞socket,read/write就要阻塞掉。而如果是非阻塞socket,read/write立即返回-1, 同时errno设置为EAGAIN。
所以,对于阻塞socket,read/write返回-1代表网络出错了。但对于非阻塞socket,read/write返回-1不一定网络真的出错了。可能是Resource temporarily unavailable。这时你应该再试,直到Resource available。
综上,对于non-blocking的socket,正确的读写操作为:
读:忽略掉errno = EAGAIN的错误,下次继续读
写:忽略掉errno = EAGAIN的错误,下次继续写
对于select和epoll的LT模式,这种读写方式是没有问题的。但对于epoll的ET模式,这种方式还有漏洞。
epoll的两种模式LT和ET
二者的差异在于level-trigger模式下只要某个socket处于readable/writable状态,无论什么时候进行epoll_wait都会返回该socket;而edge-trigger模式下只有某个socket从unreadable变为readable或从unwritable变为writable时,epoll_wait才会返回该socket。
所以,在epoll的ET模式下,正确的读写方式为:
读:只要可读,就一直读,直到返回0,或者 errno = EAGAIN
写:只要可写,就一直写,直到数据发送完,或者 errno = EAGAIN
正确的读
| n =0; |
| while((nread = read(fd, buf + n, BUFSIZ-1))>0){ |
| n += nread; |
| } |
| if(nread ==-1&& errno != EAGAIN){ |
| perror("read error"); |
| } |
正确的写
| int nwrite, data_size = strlen(buf); |
| n = data_size; |
| while(n >0){ |
| nwrite = write(fd, buf + data_size - n, n); |
| if(nwrite < n){ |
| if(nwrite ==-1&& errno != EAGAIN){ |
| perror("write error"); |
| } |
| break; |
| } |
| n -= nwrite; |
| } |
正确的accept,accept 要考虑 2 个问题
(1) 阻塞模式 accept 存在的问题
考虑这种情况:TCP连接被客户端夭折,即在服务器调用accept之前,客户端主动发送RST终止连接,导致刚刚建立的连接从就绪队列中移出,如果套接口被设置成阻塞模式,服务器就会一直阻塞在accept调用上,直到其他某个客户建立一个新的连接为止。但是在此期间,服务器单纯地阻塞在accept调用上,就绪队列中的其他描述符都得不到处理。
解决办法是把监听套接口设置为非阻塞,当客户在服务器调用accept之前中止某个连接时,accept调用可以立即返回-1,这时源自Berkeley的实现会在内核中处理该事件,并不会将该事件通知给epool,而其他实现把errno设置为ECONNABORTED或者EPROTO错误,我们应该忽略这两个错误。
(2)ET模式下accept存在的问题
考虑这种情况:多个连接同时到达,服务器的TCP就绪队列瞬间积累多个就绪连接,由于是边缘触发模式,epoll只会通知一次,accept只处理一个连接,导致TCP就绪队列中剩下的连接都得不到处理。
解决办法是用while循环抱住accept调用,处理完TCP就绪队列中的所有连接后再退出循环。如何知道是否处理完就绪队列中的所有连接呢?accept返回-1并且errno设置为EAGAIN就表示所有连接都处理完。
综合以上两种情况,服务器应该使用非阻塞地accept,accept在ET模式下的正确使用方式为:
| while((conn_sock = accept(listenfd,(struct sockaddr *)&remote,(size_t *)&addrlen))>0){ |
| handle_client(conn_sock); |
| } |
| if(conn_sock ==-1){ |
| if(errno != EAGAIN && errno != ECONNABORTED && errno != EPROTO && errno != EINTR) |
| perror("accept"); |
| } |
一道腾讯后台开发的面试题
使用Linuxepoll模型,水平触发模式;当socket可写时,会不停的触发socket可写的事件,如何处理?
第一种最普遍的方式:
需要向socket写数据的时候才把socket加入epoll,等待可写事件。
接受到可写事件后,调用write或者send发送数据。
当所有数据都写完后,把socket移出epoll。
这种方式的缺点是,即使发送很少的数据,也要把socket加入epoll,写完后在移出epoll,有一定操作代价。
一种改进的方式:
开始不把socket加入epoll,需要向socket写数据的时候,直接调用write或者send发送数据。如果返回EAGAIN,把socket加入epoll,在epoll的驱动下写数据,全部数据发送完毕后,再移出epoll。
这种方式的优点是:数据不多的时候可以避免epoll的事件处理,提高效率。
最后贴一个使用epoll,ET模式的简单HTTP服务器代码:
| #include<sys/socket.h> |
| #include<sys/wait.h> |
| #include<netinet/in.h> |
| #include<netinet/tcp.h> |
| #include<sys/epoll.h> |
| #include<sys/sendfile.h> |
| #include<sys/stat.h> |
| #include<unistd.h> |
| #include<stdio.h> |
| #include<stdlib.h> |
| #include<string.h> |
| #include<strings.h> |
| #include<fcntl.h> |
| #include<errno.h> |
| #define MAX_EVENTS 10 |
| #define PORT 8080 |
| //设置socket连接为非阻塞模式 |
| void setnonblocking(int sockfd){ |
| int opts; |
| opts = fcntl(sockfd, F_GETFL); |
| if(opts <0){ |
| perror("fcntl(F_GETFL)\n"); |
| exit(1); |
| } |
| opts =(opts | O_NONBLOCK); |
| if(fcntl(sockfd, F_SETFL, opts)<0){ |
| perror("fcntl(F_SETFL)\n"); |
| exit(1); |
| } |
| } |
| int main(){ |
| struct epoll_event ev, events[MAX_EVENTS]; |
| int addrlen, listenfd, conn_sock, nfds, epfd, fd, i, nread, n; |
| struct sockaddr_in local, remote; |
| char buf[BUFSIZ]; |
| //创建listen socket |
| if((listenfd = socket(AF_INET, SOCK_STREAM,0))<0){ |
| perror("sockfd\n"); |
| exit(1); |
| } |
| setnonblocking(listenfd); |
| bzero(&local,sizeof(local)); |
| local.sin_family = AF_INET; |
| local.sin_addr.s_addr = htonl(INADDR_ANY);; |
| local.sin_port = htons(PORT); |
| if( bind(listenfd,(struct sockaddr *)&local,sizeof(local))<0){ |
| perror("bind\n"); |
| exit(1); |
| } |
| listen(listenfd,20); |
| epfd = epoll_create(MAX_EVENTS); |
| if(epfd ==-1){ |
| perror("epoll_create"); |
| exit(EXIT_FAILURE); |
| } |
| ev.events = EPOLLIN; |
| ev.data.fd = listenfd; |
| if(epoll_ctl(epfd, EPOLL_CTL_ADD, listenfd,&ev)==-1){ |
| perror("epoll_ctl: listen_sock"); |
| exit(EXIT_FAILURE); |
| } |
| for(;;){ |
| nfds = epoll_wait(epfd, events, MAX_EVENTS,-1); |
| if(nfds ==-1){ |
| perror("epoll_pwait"); |
| exit(EXIT_FAILURE); |
| } |
| for(i =0; i < nfds;++i){ |
| fd = events[i].data.fd; |
| if(fd == listenfd){ |
| while((conn_sock = accept(listenfd,(struct sockaddr *)&remote, |
| (size_t *)&addrlen))>0){ |
| setnonblocking(conn_sock); |
| ev.events = EPOLLIN | EPOLLET; |
| ev.data.fd = conn_sock; |
| if(epoll_ctl(epfd, EPOLL_CTL_ADD, conn_sock, |
| &ev)==-1){ |
| perror("epoll_ctl: add"); |
| exit(EXIT_FAILURE); |
| } |
| } |
| if(conn_sock ==-1){ |
| if(errno != EAGAIN && errno != ECONNABORTED |
| && errno != EPROTO && errno != EINTR) |
| perror("accept"); |
| } |
| continue; |
| } |
| if(events[i].events & EPOLLIN){ |
| n =0; |
| while((nread = read(fd, buf + n, BUFSIZ-1))>0){ |
| n += nread; |
| } |
| if(nread ==-1&& errno != EAGAIN){ |
| perror("read error"); |
| } |
| ev.data.fd = fd; |
| ev.events = events[i].events | EPOLLOUT; |
| if(epoll_ctl(epfd, EPOLL_CTL_MOD, fd,&ev)==-1){ |
| perror("epoll_ctl: mod"); |
| } |
| } |
| if(events[i].events & EPOLLOUT){ |
| sprintf(buf,"HTTP/1.1 200 OK\r\nContent-Length: %d\r\n\r\nHello World",11); |
| int nwrite, data_size = strlen(buf); |
| n = data_size; |
| while(n >0){ |
| nwrite = write(fd, buf + data_size - n, n); |
| if(nwrite < n){ |
| if(nwrite ==-1&& errno != EAGAIN){ |
| perror("write error"); |
| } |
| break; |
| } |
| n -= nwrite; |
| } |
| close(fd); |
| } |
| } |
| } |
| return0; |
| } |

浙公网安备 33010602011771号
哇塞,全是代码,看起来很高深的样子啊
哇塞,全是代码,看起来很高深的样子啊
二者的差异在于level-trigger模式下只要某个socket处于readable/writable状态,无论什么时候进行epoll_wait都会返回该socket;而edge-trigger模式下只有某个socket从unreadable变为readable或从unwritable变为writable时,epoll_wait才会返回该socket。
需要向socket写数据的时候才把socket加入epoll,等待可写事件,接受到可写事件后,调用write或者send发送数据。
当所有数据都写完后,把socket移出epoll。考虑这种情况:多个连接同时到达,服务器的TCP就绪队列瞬间积累多个就绪连接,由于是边缘触发模式,epoll只会通知一次,accept只处理一个连接,导致TCP就绪队列中剩下的连接都得不到处理。
支持原创
楼主厉害啊。