高并发的epoll+线程池,线程池专注实现业务
我们知道,服务器并发模型通常可分为单线程和多线程模型,这里的线程通常是指“I/O线程”,即负责I/O操作,协调分配任务的“管理线程”,而实际的请求和任务通常交由所谓“工作者线程”处理。通常多线程模型下,每个线程既是I/O线程又是工作者线程。所以这里讨论的是,单I/O线程+多工作者线程的模型,这也是最常用的一种服务器并发模型。我所在的项目中的server代码中,这种模型随处可见。它还有个名字,叫“半同步/半异步“模型,同时,这种模型也是生产者/消费者(尤其是多消费者)模型的一种表现。
这种架构主要是基于I/O多路复用的思想(主要是epoll,select/poll已过时),通过单线程I/O多路复用,可以达到高效并发,同时避免了多线程I/O来回切换的各种开销,思路清晰,易于管理,而基于线程池的多工作者线程,又可以充分发挥和利用多线程的优势,利用线程池,进一步提高资源复用性和避免产生过多线程。
线程池你开10个线程当然可以一上来全部accept阻塞住,这样客户端一连上来便会自动激活一个线程去处理,但是设想一下,如果10个线程全部用掉了,第11个客户端就会发生丢弃。这样为了实现”高并发“你得不断加大线程池的数量。这样会带来严重的内存占用和线程切换的时延问题。
于是前置事件轮询设施的方案就应运而生了,
主线程轮询负责IO,作业交给线程池。
在高并发下,10W个客户端上来,就主线程负责accept,放到队列中,不至于发生没有及时握手而丢弃掉连接的情况发生,而作业线程从队列中认领作业,做完回复主线程,主线程负责write。这样可以用极少的系统资源处理大数量连接。
在低并发下,比如2个客户端上来,也不会出现100个线程hold住在那从而发生系统资源浪费的情况。
正确实现基本线程池模型的核心:
主线程负责所有的 I/O 操作,收齐一个请求所有数据之后如果有必要,交给工作线程进行处理 。处理完成之后,把需要写回的数据还给主线程去做写回 / 尝试写回数据直到阻塞,然后交回主线程继续。
这里「如果有必要」的意思是:经过测量,确认这个处理过程中所消耗的 CPU 时间(不包括任何 I/O 等待,或者相关的 I/O 等待操作无法用 epoll 接管)相当显著。如果这个处理过程(不包含可接管的 I/O 操作)不显著,则可以直接放在主线程里解决。
这个「必要」与否的前提不过三个词:假设,分析,测量。
所以,一个正确实现的线程池环境钟,用 epoll + non-blocking I/O 代替 select + blocking I/O 的好处是,处理大量 socket 的时候,前者效率比后者高,因为前者不需要每次被唤醒之后重新检查所有 fd 判断哪个 fd 的状态改变可以进行读写了。
1、单I/O 线程epoll
实现单I/O线程的epoll模型是本架构的第一个技术要点,主要思想如下:
单线程创建epoll并等待,有I/O请求(socket)到达时,将其加入epoll并从线程池中取一个空闲工作者线程,将实际的业务交由工作者线程处理。
伪码:
1 创建一个epoll实例; 2 while(server running) 3 { 4 epoll等待事件; 5 if(新连接到达且是有效连接) 6 { 7 accept此连接; 8 将此连接设置为non-blocking; 为此连接设置event(EPOLLIN | EPOLLET ...); 9 将此连接加入epoll监听队列; 10 从线程池取一个空闲工作者线程并处理此连接; 11 } 12 else if(读请求) 13 { 14 从线程池取一个空闲工作者线程并处理读请求; 15 } 16 else if(写请求) 17 { 18 从线程池取一个空闲工作者线程并处理写请求; 19 } 20 else 21 其他事件; 22 }
2、线程池实现
server启动时,创建一定数量的工作者线程加入线程池,如(20个),供I/O线程来取用;
每当I/O线程请求空闲工作者线程时,从池中取出一个空闲工作者线程,处理相应请求;
当请求处理完毕,关闭相应I/O连接时,回收相应线程并放回线程池中供下次使用;
若请求空闲工作者线程池时,没有空闲工作者线程,可作如下处理:
(1)若池中"管理"的线程总数不超过最大允许值,可创建一批新的工作者线程加入池中,并返回其中一个供I/O线程使用;
(2)若池中"管理"的线程总数已经达到最大值,不应再继续创建新线程, 则等待一小段时间并重试。注意因为I/O线程是单线程且不应被阻塞等待在此处,所以其实对线程池的管理应由一个专门的管理线程完成,包括创建新工作者线程等工作。此时管理线程阻塞等待(如使用条件变量并等待唤醒),一小段时间之后,线程池中应有空闲工作者线程可使用。否则server负荷估计是出了问题。
sprintf(buf,"HTTP/1.0 200 OK\r\nContent-type: text/plain\r\n\r\n%s","Hello world!\n");
send(socketfd,buf, strlen(buf),0);
1 #include <iostream> 2 #include <sys/socket.h> 3 #include <sys/epoll.h> 4 #include <netinet/in.h> 5 #include <arpa/inet.h> 6 #include <fcntl.h> 7 #include <unistd.h> 8 #include <stdio.h> 9 #include <pthread.h> 10 11 #include <errno.h> 12 13 #define MAXLINE 10 14 #define OPEN_MAX 100 15 #define LISTENQ 20 16 #define SERV_PORT 8006 17 #define INFTIM 1000 18 19 //线程池任务队列结构体 20 21 struct task{ 22 int fd; //需要读写的文件描述符 23 24 struct task *next; //下一个任务 25 26 }; 27 28 //用于读写两个的两个方面传递参数 29 30 struct user_data{ 31 int fd; 32 unsigned int n_size; 33 char line[MAXLINE]; 34 }; 35 36 //线程的任务函数 37 38 void * readtask(void *args); 39 void * writetask(void *args); 40 41 42 //声明epoll_event结构体的变量,ev用于注册事件,数组用于回传要处理的事件 43 44 struct epoll_event ev,events[20]; 45 int epfd; 46 pthread_mutex_t mutex; 47 pthread_cond_t cond1; 48 struct task *readhead=NULL,*readtail=NULL,*writehead=NULL; 49 50 void setnonblocking(int sock) 51 { 52 int opts; 53 opts=fcntl(sock,F_GETFL); 54 if(opts<0) 55 { 56 perror("fcntl(sock,GETFL)"); 57 exit(1); 58 } 59 opts = opts|O_NONBLOCK; 60 if(fcntl(sock,F_SETFL,opts)<0) 61 { 62 perror("fcntl(sock,SETFL,opts)"); 63 exit(1); 64 } 65 } 66 67 int main() 68 { 69 int i, maxi, listenfd, connfd, sockfd,nfds; 70 pthread_t tid1,tid2; 71 72 struct task *new_task=NULL; 73 struct user_data *rdata=NULL; 74 socklen_t clilen; 75 76 pthread_mutex_init(&mutex,NULL); 77 pthread_cond_init(&cond1,NULL); 78 //初始化用于读线程池的线程 79 80 pthread_create(&tid1,NULL,readtask,NULL); 81 pthread_create(&tid2,NULL,readtask,NULL); 82 83 //生成用于处理accept的epoll专用的文件描述符 84 85 epfd=epoll_create(256); 86 87 struct sockaddr_in clientaddr; 88 struct sockaddr_in serveraddr; 89 listenfd = socket(AF_INET, SOCK_STREAM, 0); 90 //把socket设置为非阻塞方式 91 92 setnonblocking(listenfd); 93 //设置与要处理的事件相关的文件描述符 94 95 ev.data.fd=listenfd; 96 //设置要处理的事件类型 97 98 ev.events=EPOLLIN|EPOLLET; 99 //注册epoll事件 100 101 epoll_ctl(epfd,EPOLL_CTL_ADD,listenfd,&ev); 102 103 bzero(&serveraddr, sizeof(serveraddr)); 104 serveraddr.sin_family = AF_INET; 105 serveraddr.sin_port=htons(SERV_PORT); 106 serveraddr.sin_addr.s_addr = INADDR_ANY; 107 bind(listenfd,(sockaddr *)&serveraddr, sizeof(serveraddr)); 108 listen(listenfd, LISTENQ); 109 110 maxi = 0; 111 for ( ; ; ) { 112 //等待epoll事件的发生 113 114 nfds=epoll_wait(epfd,events,20,500); 115 //处理所发生的所有事件 116 117 for(i=0;i<nfds;++i) 118 { 119 if(events[i].data.fd==listenfd) 120 { 121 122 connfd = accept(listenfd,(sockaddr *)&clientaddr, &clilen); 123 if(connfd<0){ 124 perror("connfd<0"); 125 exit(1); 126 } 127 setnonblocking(connfd); 128 129 char *str = inet_ntoa(clientaddr.sin_addr); 130 //std::cout<<"connec_ from >>"<<str<<std::endl; 131 132 //设置用于读操作的文件描述符 133 134 ev.data.fd=connfd; 135 //设置用于注测的读操作事件 136 137 ev.events=EPOLLIN|EPOLLET; 138 //注册ev 139 140 epoll_ctl(epfd,EPOLL_CTL_ADD,connfd,&ev); 141 } 142 else if(events[i].events&EPOLLIN) 143 { 144 //printf("reading!/n"); 145 146 if ( (sockfd = events[i].data.fd) < 0) continue; 147 new_task=new task(); 148 new_task->fd=sockfd; 149 new_task->next=NULL; 150 //添加新的读任务 151 152 pthread_mutex_lock(&mutex); 153 if(readhead==NULL) 154 { 155 readhead=new_task; 156 readtail=new_task; 157 } 158 else 159 { 160 readtail->next=new_task; 161 readtail=new_task; 162 } 163 //唤醒所有等待cond1条件的线程 164 165 pthread_cond_broadcast(&cond1); 166 pthread_mutex_unlock(&mutex); 167 } 168 else if(events[i].events&EPOLLOUT) 169 { 170 /* 171 rdata=(struct user_data *)events[i].data.ptr; 172 sockfd = rdata->fd; 173 write(sockfd, rdata->line, rdata->n_size); 174 delete rdata; 175 //设置用于读操作的文件描述符 176 ev.data.fd=sockfd; 177 //设置用于注测的读操作事件 178 ev.events=EPOLLIN|EPOLLET; 179 //修改sockfd上要处理的事件为EPOLIN 180 epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev); 181 */ 182 } 183 184 } 185 186 } 187 } 188 189 static int count111 = 0; 190 static time_t oldtime = 0, nowtime = 0; 191 void * readtask(void *args) 192 { 193 194 int fd=-1; 195 unsigned int n; 196 //用于把读出来的数据传递出去 197 198 struct user_data *data = NULL; 199 while(1){ 200 201 pthread_mutex_lock(&mutex); 202 //等待到任务队列不为空 203 204 while(readhead==NULL) 205 pthread_cond_wait(&cond1,&mutex); 206 207 fd=readhead->fd; 208 //从任务队列取出一个读任务 209 210 struct task *tmp=readhead; 211 readhead = readhead->next; 212 delete tmp; 213 pthread_mutex_unlock(&mutex); 214 data = new user_data(); 215 data->fd=fd; 216 217 218 char recvBuf[1024] = {0}; 219 int ret = 999; 220 int rs = 1; 221 222 while(rs) 223 { 224 ret = recv(fd,recvBuf,1024,0);// 接受客户端消息 225 226 if(ret < 0) 227 { 228 //由于是非阻塞的模式,所以当errno为EAGAIN时,表示当前缓冲区已无数据可//读在这里就当作是该次事件已处理过。 229 230 if(errno == EAGAIN) 231 { 232 printf("EAGAIN\n"); 233 break; 234 } 235 else{ 236 printf("recv error!\n"); 237 238 close(fd); 239 break; 240 } 241 } 242 else if(ret == 0) 243 { 244 // 这里表示对端的socket已正常关闭. 245 246 rs = 0; 247 } 248 if(ret == sizeof(recvBuf)) 249 rs = 1; // 需要再次读取 250 251 else 252 rs = 0; 253 } 254 if(ret>0){ 255 256 //------------------------------------------------------------------------------- 257 258 259 data->n_size=n; 260 261 262 count111 ++; 263 264 struct tm *today; 265 time_t ltime; 266 time( &nowtime ); 267 268 if(nowtime != oldtime){ 269 printf("%d\n", count111); 270 oldtime = nowtime; 271 count111 = 0; 272 } 273 274 char buf[1000] = {0}; 275 sprintf(buf,"HTTP/1.0 200 OK\r\nContent-type: text/plain\r\n\r\n%s","Hello world!\n"); 276 send(fd,buf,strlen(buf),0); 277 close(fd); 278 279 280 } 281 } 282 }

浙公网安备 33010602011771号