高并发的epoll+线程池,线程池专注实现业务

我们知道,服务器并发模型通常可分为单线程和多线程模型,这里的线程通常是指“I/O线程”,即负责I/O操作,协调分配任务的“管理线程”,而实际的请求和任务通常交由所谓“工作者线程”处理。通常多线程模型下,每个线程既是I/O线程又是工作者线程。所以这里讨论的是,单I/O线程+多工作者线程的模型,这也是最常用的一种服务器并发模型。我所在的项目中的server代码中,这种模型随处可见。它还有个名字,叫“半同步/半异步“模型,同时,这种模型也是生产者/消费者(尤其是多消费者)模型的一种表现。

这种架构主要是基于I/O多路复用的思想(主要是epoll,select/poll已过时),通过单线程I/O多路复用,可以达到高效并发,同时避免了多线程I/O来回切换的各种开销,思路清晰,易于管理,而基于线程池的多工作者线程,又可以充分发挥和利用多线程的优势,利用线程池,进一步提高资源复用性和避免产生过多线程。

 

瓶颈在于IO密集度。
线程池你开10个线程当然可以一上来全部accept阻塞住,这样客户端一连上来便会自动激活一个线程去处理,但是设想一下,如果10个线程全部用掉了,第11个客户端就会发生丢弃。这样为了实现”高并发“你得不断加大线程池的数量。这样会带来严重的内存占用和线程切换的时延问题。
于是前置事件轮询设施的方案就应运而生了,
主线程轮询负责IO,作业交给线程池。
在高并发下,10W个客户端上来,就主线程负责accept,放到队列中,不至于发生没有及时握手而丢弃掉连接的情况发生,而作业线程从队列中认领作业,做完回复主线程,主线程负责write。这样可以用极少的系统资源处理大数量连接。
在低并发下,比如2个客户端上来,也不会出现100个线程hold住在那从而发生系统资源浪费的情况。

正确实现基本线程池模型的核心:
主线程负责所有的 I/O 操作,收齐一个请求所有数据之后如果有必要,交给工作线程进行处理 。处理完成之后,把需要写回的数据还给主线程去做写回 / 尝试写回数据直到阻塞,然后交回主线程继续。
这里「如果有必要」的意思是:经过测量,确认这个处理过程中所消耗的 CPU 时间(不包括任何 I/O 等待,或者相关的 I/O 等待操作无法用 epoll 接管)相当显著。如果这个处理过程(不包含可接管的 I/O 操作)不显著,则可以直接放在主线程里解决。
这个「必要」与否的前提不过三个词:假设,分析,测量。


所以,一个正确实现的线程池环境钟,用 epoll + non-blocking I/O 代替 select + blocking I/O 的好处是,处理大量 socket 的时候,前者效率比后者高,因为前者不需要每次被唤醒之后重新检查所有 fd 判断哪个 fd 的状态改变可以进行读写了。

 

关键

1、单I/O 线程epoll

实现单I/O线程的epoll模型是本架构的第一个技术要点,主要思想如下: 

单线程创建epoll并等待,有I/O请求(socket)到达时,将其加入epoll并从线程池中取一个空闲工作者线程,将实际的业务交由工作者线程处理。

伪码:

 
 1 创建一个epoll实例;
 2 while(server running)
 3 {
 4     epoll等待事件;
 5     if(新连接到达且是有效连接)
 6     {
 7         accept此连接;
 8         将此连接设置为non-blocking;       为此连接设置event(EPOLLIN | EPOLLET ...);
 9         将此连接加入epoll监听队列;
10         从线程池取一个空闲工作者线程并处理此连接;
11     }
12     else if(读请求)
13     {
14         从线程池取一个空闲工作者线程并处理读请求;
15     }
16     else if(写请求)
17     {
18         从线程池取一个空闲工作者线程并处理写请求;
19     }
20     else
21         其他事件;     
22 }

2、线程池实现

server启动时,创建一定数量的工作者线程加入线程池,如(20个),供I/O线程来取用;

每当I/O线程请求空闲工作者线程时,从池中取出一个空闲工作者线程,处理相应请求;

当请求处理完毕,关闭相应I/O连接时,回收相应线程并放回线程池中供下次使用;

若请求空闲工作者线程池时,没有空闲工作者线程,可作如下处理:

(1)若池中"管理"的线程总数不超过最大允许值,可创建一批新的工作者线程加入池中,并返回其中一个供I/O线程使用;

(2)若池中"管理"的线程总数已经达到最大值,不应再继续创建新线程, 则等待一小段时间并重试。注意因为I/O线程是单线程且不应被阻塞等待在此处,所以其实对线程池的管理应由一个专门的管理线程完成,包括创建新工作者线程等工作。此时管理线程阻塞等待(如使用条件变量并等待唤醒),一小段时间之后,线程池中应有空闲工作者线程可使用。否则server负荷估计是出了问题。

 

epoll是linux下高并发服务器的完美方案,因为是基于事件触发的,所以比select快的不只是一个数量级。
单线程epoll,触发量可达到15000,但是加上业务后,因为大多数业务都与数据库打交道,所以就会存在阻塞的情况,这个时候就必须用多线程来提速。
 
业务在线程池内,这里要加锁才行。测试结果2300个/s
 
测试工具:stressmark
因为加了适用与ab的代码,所以也可以适用ab进行压力测试。
char buf[1000] = {0};
sprintf(buf,"HTTP/1.0 200 OK\r\nContent-type: text/plain\r\n\r\n%s","Hello world!\n");
send(socketfd,buf, strlen(buf),0);
  1 #include <iostream>
  2 #include <sys/socket.h>
  3 #include <sys/epoll.h>
  4 #include <netinet/in.h>
  5 #include <arpa/inet.h>
  6 #include <fcntl.h>
  7 #include <unistd.h>
  8 #include <stdio.h>
  9 #include <pthread.h>
 10  
 11 #include <errno.h>
 12   
 13 #define MAXLINE 10
 14 #define OPEN_MAX 100
 15 #define LISTENQ 20
 16 #define SERV_PORT 8006
 17 #define INFTIM 1000
 18   
 19 //线程池任务队列结构体
 20  
 21 struct task{
 22   int fd; //需要读写的文件描述符
 23  
 24   struct task *next; //下一个任务
 25  
 26 };
 27   
 28 //用于读写两个的两个方面传递参数
 29  
 30 struct user_data{
 31   int fd;
 32   unsigned int n_size;
 33   char line[MAXLINE];
 34 };
 35   
 36 //线程的任务函数
 37  
 38 void * readtask(void *args);
 39 void * writetask(void *args);
 40   
 41   
 42 //声明epoll_event结构体的变量,ev用于注册事件,数组用于回传要处理的事件
 43  
 44 struct epoll_event ev,events[20];
 45 int epfd;
 46 pthread_mutex_t mutex;
 47 pthread_cond_t cond1;
 48 struct task *readhead=NULL,*readtail=NULL,*writehead=NULL;
 49   
 50 void setnonblocking(int sock)
 51 {
 52      int opts;
 53      opts=fcntl(sock,F_GETFL);
 54      if(opts<0)
 55      {
 56           perror("fcntl(sock,GETFL)");
 57           exit(1);
 58      }
 59     opts = opts|O_NONBLOCK;
 60      if(fcntl(sock,F_SETFL,opts)<0)
 61      {
 62           perror("fcntl(sock,SETFL,opts)");
 63           exit(1);
 64      }
 65 }
 66   
 67 int main()
 68 {
 69      int i, maxi, listenfd, connfd, sockfd,nfds;
 70      pthread_t tid1,tid2;
 71      
 72      struct task *new_task=NULL;
 73      struct user_data *rdata=NULL;
 74      socklen_t clilen;
 75      
 76      pthread_mutex_init(&mutex,NULL);
 77      pthread_cond_init(&cond1,NULL);
 78      //初始化用于读线程池的线程
 79  
 80      pthread_create(&tid1,NULL,readtask,NULL);
 81      pthread_create(&tid2,NULL,readtask,NULL);
 82      
 83      //生成用于处理accept的epoll专用的文件描述符
 84  
 85      epfd=epoll_create(256);
 86   
 87      struct sockaddr_in clientaddr;
 88      struct sockaddr_in serveraddr;
 89      listenfd = socket(AF_INET, SOCK_STREAM, 0);
 90      //把socket设置为非阻塞方式
 91  
 92      setnonblocking(listenfd);
 93      //设置与要处理的事件相关的文件描述符
 94  
 95      ev.data.fd=listenfd;
 96      //设置要处理的事件类型
 97  
 98      ev.events=EPOLLIN|EPOLLET;
 99      //注册epoll事件
100  
101      epoll_ctl(epfd,EPOLL_CTL_ADD,listenfd,&ev);
102      
103      bzero(&serveraddr, sizeof(serveraddr));
104      serveraddr.sin_family = AF_INET;
105      serveraddr.sin_port=htons(SERV_PORT);
106      serveraddr.sin_addr.s_addr = INADDR_ANY;
107      bind(listenfd,(sockaddr *)&serveraddr, sizeof(serveraddr));
108      listen(listenfd, LISTENQ);
109      
110      maxi = 0;
111      for ( ; ; ) {
112           //等待epoll事件的发生
113  
114           nfds=epoll_wait(epfd,events,20,500);
115           //处理所发生的所有事件
116  
117         for(i=0;i<nfds;++i)
118         {
119                if(events[i].data.fd==listenfd)
120                {
121                     
122                     connfd = accept(listenfd,(sockaddr *)&clientaddr, &clilen);
123                     if(connfd<0){
124                       perror("connfd<0");
125                       exit(1);
126                    }
127                     setnonblocking(connfd);
128                     
129                     char *str = inet_ntoa(clientaddr.sin_addr);
130                     //std::cout<<"connec_ from >>"<<str<<std::endl;
131  
132                     //设置用于读操作的文件描述符
133  
134                     ev.data.fd=connfd;
135                     //设置用于注测的读操作事件
136  
137                  ev.events=EPOLLIN|EPOLLET;
138                     //注册ev
139  
140                  epoll_ctl(epfd,EPOLL_CTL_ADD,connfd,&ev);
141                }
142             else if(events[i].events&EPOLLIN)
143             {
144                     //printf("reading!/n");
145  
146                     if ( (sockfd = events[i].data.fd) < 0) continue;
147                     new_task=new task();
148                     new_task->fd=sockfd;
149                     new_task->next=NULL;
150                     //添加新的读任务
151  
152                     pthread_mutex_lock(&mutex);
153                     if(readhead==NULL)
154                     {
155                       readhead=new_task;
156                       readtail=new_task;
157                     }
158                     else
159                     {
160                      readtail->next=new_task;
161                       readtail=new_task;
162                     }
163                    //唤醒所有等待cond1条件的线程
164  
165                     pthread_cond_broadcast(&cond1);
166                     pthread_mutex_unlock(&mutex);
167               }
168                else if(events[i].events&EPOLLOUT)
169                {
170                  /*
171               rdata=(struct user_data *)events[i].data.ptr;
172                  sockfd = rdata->fd;
173                  write(sockfd, rdata->line, rdata->n_size);
174                  delete rdata;
175                  //设置用于读操作的文件描述符
176                  ev.data.fd=sockfd;
177                  //设置用于注测的读操作事件
178                ev.events=EPOLLIN|EPOLLET;
179                  //修改sockfd上要处理的事件为EPOLIN
180                epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev);
181              */
182                }
183                               
184           }
185           
186      }
187 }
188  
189 static int count111 = 0;
190 static time_t oldtime = 0, nowtime = 0;
191 void * readtask(void *args)
192 {
193     
194    int fd=-1;
195    unsigned int n;
196    //用于把读出来的数据传递出去
197  
198    struct user_data *data = NULL;
199    while(1){
200          
201         pthread_mutex_lock(&mutex);
202         //等待到任务队列不为空
203  
204         while(readhead==NULL)
205              pthread_cond_wait(&cond1,&mutex);
206          
207         fd=readhead->fd;
208         //从任务队列取出一个读任务
209  
210         struct task *tmp=readhead;
211         readhead = readhead->next;
212         delete tmp;
213         pthread_mutex_unlock(&mutex);
214         data = new user_data();
215         data->fd=fd;
216          
217  
218         char recvBuf[1024] = {0};
219         int ret = 999;
220         int rs = 1;
221  
222         while(rs)
223         {
224             ret = recv(fd,recvBuf,1024,0);// 接受客户端消息
225  
226             if(ret < 0)
227             {
228                 //由于是非阻塞的模式,所以当errno为EAGAIN时,表示当前缓冲区已无数据可//读在这里就当作是该次事件已处理过。
229  
230                 if(errno == EAGAIN)
231                 {
232                     printf("EAGAIN\n");
233                     break;
234                 }
235                 else{
236                     printf("recv error!\n");
237          
238                     close(fd);
239                     break;
240                 }
241             }
242             else if(ret == 0)
243             {
244                 // 这里表示对端的socket已正常关闭.
245  
246                 rs = 0;
247             }
248             if(ret == sizeof(recvBuf))
249                 rs = 1; // 需要再次读取
250  
251             else
252                 rs = 0;
253         }
254         if(ret>0){
255  
256         //-------------------------------------------------------------------------------
257  
258  
259             data->n_size=n;
260  
261  
262             count111 ++;
263  
264             struct tm *today;
265             time_t ltime;
266             time( &nowtime );
267  
268             if(nowtime != oldtime){
269                 printf("%d\n", count111);
270                 oldtime = nowtime;
271                 count111 = 0;
272             }
273  
274             char buf[1000] = {0};
275             sprintf(buf,"HTTP/1.0 200 OK\r\nContent-type: text/plain\r\n\r\n%s","Hello world!\n");
276             send(fd,buf,strlen(buf),0);
277             close(fd);
278  
279  
280        }
281    }
282 }

 

posted @ 2021-03-06 17:35  天哥的小屋  阅读(370)  评论(0)    收藏  举报