python-python基础10(多进程,协程,IO多路复用)

一、多进程multiprocessing

multiprocessing是一个程序包,它使用类似于线程模块的API支持生成程序。 多处理程序包同时提供本地和远程并发性,通过使用子进程而不是线程来有效地避开全局解释器锁。 因此,多处理模块允许程序员充分利用给定机器上的多个处理器。 它可以在Unix和Windows上运行。

import multiprocessing
import time

def run(name):
    print("hello %s"%name)
    time.sleep(2)

if __name__=="__main__":
    for i in range(5):
        p=multiprocessing.Process(target=run,args=("jehu",))
        p.start()

每个进程都有一个父进程,下面这个例子查看一下每个进程的进程ID以及父进程ID:

from multiprocessing import Process
import os


def info(title):
    print(title)
    print('module name:', __name__)
    print('parent process:', os.getppid())   #打印父进程id
    print('process id:', os.getpid())        #打印当前进程id
    print("\n\n")


def f(name):
    info('\033[31;1mfunction f\033[0m')
    print('hello', name)


if __name__ == '__main__':
    info('\033[32;1mmain process line\033[0m')
    p = Process(target=f, args=('bob',))
    p.start()
    p.join()

执行结果:

main process line
module name: __main__
parent process: 7944
process id: 6744


function f
module name: __mp_main__
parent process: 6744
process id: 10136


hello bob

主进程的进程id是其子进程的父进程id

 

进程间通讯  

不同进程间内存是不共享的,要想实现两个进程间的数据交换,可以用以下方法:

Queues

使用方法跟threading里的queue差不多

from multiprocessing import Process, Queue

def f(q):
    q.put([42, None, 'hello'])     #3.子进程往主进程的Queue里传数据

if __name__ == '__main__':
    q = Queue()     #1.在主进程中生成一个进程Queue实例,注意不同于线程的queue
    p = Process(target=f, args=(q,))    #2.把主进程的Queue当成参数传给子进程
    p.start()
    print(q.get())  # prints "[42, None, 'hello']"    #4.主进程从Queue中取出子进程传进的数据,实现了不同进程之间的数据传递
    p.join()

我们知道不同进程间的数据无法共享,是不同的内存空间,那为什么主进程能把queue传给子进程呢?

实际上底层逻辑是,主进程在把queue当作参数传给子进程的时候,实际上是克隆了一个queue给子进程,也就是主进程和子进程各有一个queue,子进程在往它的queue中传数据的时候,有一个第三方把子进程queue中的数据通过pickl序列化存进来,再反序列化写入主进程的queue。有一个第三方,而不是主进程与子进程之间直接传递数据。

 Pipes管道

from multiprocessing import Process, Pipe

def f(conn):
    conn.send([42, None, 'hello'])   #发送消息
    conn.close()

if __name__ == '__main__':
    parent_conn, child_conn = Pipe()    #管道两端,一个是父进程一个是子进程
    p = Process(target=f, args=(child_conn,))   #生成一个进程
    p.start()
    print(parent_conn.recv())  # prints "[42, None, 'hello']"   #接收子进程的消息
    p.join()

Pipe()返回的两个连接对象代表管道的两端。 每个连接对象都有send()和recv()方法(以及其他方法)。

 

 Managers

由Manager()返回的管理器对象控制着一个服务器进程,该进程持有Python对象,并允许其他进程使用代理对其进行操作。

由Manager()返回的管理器将支持类型列表,字典,命名空间,锁,RLock,信号量,BoundedSemaphore,条件,事件,屏障,队列,值和数组。 例如,

from multiprocessing import Process, Manager
import os

def f(d, l):
    d[1] = '1'         #修改在主进程中生成的字典
    d[2]="two"
    l.append(os.getpid())    #修改在主进程中定义的列表,追加进程id
    print(l)


if __name__ == '__main__':
    with Manager() as manager:    #把Manger()这个对象重命名为manager
        d = manager.dict()        #用manager生成一个空字典d
        l = manager.list(range(5))   #用manager生成一个列表[0,1,2,3,4]
        p_list = []      #生成一个空列表用来存放进程对象
        for i in range(8):
            p = Process(target=f, args=(d, l))
            p.start()
            p_list.append(p)
        for res in p_list:
            res.join()

        print(d)
        print(l)

执行结果:

[0, 1, 2, 3, 4, 816]
[0, 1, 2, 3, 4, 816, 6536]
[0, 1, 2, 3, 4, 816, 6536, 1400]
[0, 1, 2, 3, 4, 816, 6536, 1400, 2400]
[0, 1, 2, 3, 4, 816, 6536, 1400, 2400, 9000]
[0, 1, 2, 3, 4, 816, 6536, 1400, 2400, 9000, 6240]
[0, 1, 2, 3, 4, 816, 6536, 1400, 2400, 9000, 6240, 10952]
[0, 1, 2, 3, 4, 816, 6536, 1400, 2400, 9000, 6240, 10952, 5280]
{1: '1', 2: 'two'}
[0, 1, 2, 3, 4, 816, 6536, 1400, 2400, 9000, 6240, 10952, 5280]

上面的例子给人造成一种假象,好像不同的进程能修改同一个数据。其实在for循环生成8个进程的时候,也生成了8个字典和列表,在各自的进程中对其修改,然后再合并到一起。这就是为什么用manager实现多进程修改同一个数据不需要加锁的原因,因为本来就是修改不同的数据,后面再合并到一起而已。

 

进程锁

为什么需要进程锁?每个进程都是独享内存的,彼此数据互不干扰。但是在执行python程序有时候要共享屏幕,意思就是每个进程都同时往屏幕上打印数据,如果不加锁的话,就可能会出现打印混乱的情况(一个进程的内容还没打印完就开始打印另一个进程的内容)。

from multiprocessing import Process, Lock

def f(l, i):
    l.acquire()
    print('hello world', i)
    l.release()

if __name__ == '__main__':
    lock = Lock()
    for num in range(5):
        Process(target=f, args=(lock, num)).start()

执行结果:

hello world 0
hello world 1
hello world 2
hello world 3
hello world 4

 

进程池 

进程池内部维护一个进程序列,当使用时,则去进程池中获取一个进程,如果进程池序列中没有可供使用的进进程,那么程序就会等待,直到进程池中有可用进程为止。

进程池中有两个方法:

  • apply:串行执行进程池中的进程
  • apply_async:并行执行(异步)
from multiprocessing import Process,Pool
import time,os

def run(i):
    time.sleep(2)
    print("run pid:",os.getpid())
    return i+100

def bor(a):
    print("bor exec done:",a)
    print("bor pid:",os.getpid())

if __name__=="__main__":
    pool = Pool(5)
    for i in range(10):
        pool.apply_async(func=run,args=(i,),callback=bor)  #callback:回调,意思就是执行完run后,执行bor,run的返回结果可以当作参数传给bor
   #     pool.apply(func=run,args=(i,))

    print("end")
    print("主进程id:",os.getpid())
    pool.close()    #关闭进程池
    pool.join()   #等待进程池里的进程都执行完毕,如果不join,进程就直接关闭,注意要在pool.close()后

执行结果:

end
主进程id: 10044
run pid: 9828
bor exec done: 100
bor pid: 10044
run pid: 6656
bor exec done: 101
bor pid: 10044
run pid: 7316
bor exec done: 102
bor pid: 10044
run pid: 2448
bor exec done: 103
bor pid: 10044
run pid: 1284
bor exec done: 104
bor pid: 10044
run pid: 9828
bor exec done: 105
bor pid: 10044
run pid: 6656
bor exec done: 106
bor pid: 10044
run pid: 7316
bor exec done: 107
bor pid: 10044
run pid: 2448
bor exec done: 108
bor pid: 10044
run pid: 1284
bor exec done: 109
bor pid: 10044

从上面结果可以看到,子进程执行的run函数每个进程id都不同,而回调的bor函数的进程id就是父进程的进程id,可见回调函数是在父进程中执行的。

 

二、协程

协程,又称微线程,纤程。英文名Coroutine。一句话说明什么是协程:协程是一种用户态的轻量级线程

协程拥有自己的寄存器上下文和栈。协程调度切换时,将寄存器上下文和栈保存到其他地方,在切回来的时候,恢复先前保存的寄存器上下文和栈。因此:

协程能保留上一次调用时的状态(即所有局部状态的一个特定组合),每次过程重入时,就相当于进入上一次调用的状态,换种说法:进入上一次离开时所处逻辑流的位置。

 

协程的好处:

  • 无需线程上下文切换的开销
  • 无需原子操作锁定及同步的开销
    •   "原子操作(atomic operation)是不需要synchronized",所谓原子操作是指不会被线程调度机制打断的操作;这种操作一旦开始,就一直运行到结束,中间不会有任何 context switch (切换到另一个线程)。原子操作可以是一个步骤,也可以是多个操作步骤,但是其顺序是不可以被打乱,或者切割掉只执行部分。视作整体是原子性的核心。
  • 方便切换控制流,简化编程模型
  • 高并发+高扩展性+低成本:一个CPU支持上万的协程都不是问题。所以很适合用于高并发处理。

缺点:

  • 无法利用多核资源:协程的本质是个单线程,它不能同时将 单个CPU 的多个核用上,协程需要和进程配合才能运行在多CPU上.当然我们日常所编写的绝大部分应用都没有这个必要,除非是cpu密集型应用。
  • 进行阻塞(Blocking)操作(如IO时)会阻塞掉整个程序

使用yield实现协程操作例子

import time
import queue
def consumer(name):
    print("--->starting eating baozi...")
    while True:
        new_baozi = yield
        print("[%s] is eating baozi %s" % (name,new_baozi))
        #time.sleep(1)
 
def producer():
 
    r = con.__next__()
    r = con2.__next__()
    n = 0
    while n < 5:
        n +=1
        con.send(n)
        con2.send(n)
        print("\033[32;1m[producer]\033[0m is making baozi %s" %n )
 
 
if __name__ == '__main__':
    con = consumer("c1")
    con2 = consumer("c2")
    p = producer()

我们先给协程一个标准定义,即符合什么条件就能称之为协程:

  1. 必须在只有一个单线程里实现并发
  2. 修改共享数据不需加锁
  3. 用户程序里自己保存多个控制流的上下文栈
  4. 一个协程遇到IO操作自动切换到其它协程

基于上面这4点定义,我们刚才用yield实现的程并不能算是合格的线程,因为它有一点功能没实现,没有实现协程间自动切换。

Greenlet(第三方模块)

协程间手动切换

from greenlet import greenlet

def test1():
    print(11)
    gr2.switch()
    print(22)
    gr2.switch()

def test2():
    print(33)
    gr1.switch()
    print(44)

gr1=greenlet(test1)    #启动一个协程
gr2=greenlet(test2)

gr1.switch()

执行结果:

11
33
22
44

Gevent 

Gevent 是一个第三方库,可以轻松通过gevent实现并发同步或异步编程,在gevent中用到的主要模式是Greenlet, 它是以C扩展模块形式接入Python的轻量级协程。 Greenlet全部运行在主程序操作系统进程的内部,但它们被协作式地调度。(遇到IO就切换)

import gevent

def func1():
    print("running in func1")
    gevent.sleep(1)    #模拟IO操作
    print("running in func1 2")

def func2():
    print("func2")
    gevent.sleep(1)
    print("func2 again")

gevent.joinall([
    gevent.spawn(func1),
    gevent.spawn(func2)
])

执行结果:

running in func1
func2
running in func1 2
func2 again

 

下面写一个简单的爬虫程序,用协程的方式并行的去爬不同的网站

from gevent import monkey
import gevent
import time
from urllib.request import urlopen

monkey.patch_all()    #把当前程序的所有IO操作做上标记,如果不加这个,gevent识别不了程序中的IO操作

def f(url):
    print("get : %s"%url)
    resp=urlopen(url)
  #  print("resp type:%s"%type(resp))
    data=resp.read()
  #  print("data type:",type(data))
    print("%s bytes recv from %s."%(len(data),url))

start_time=time.time()
url_syn=['http://www.qq.com','http://www.sohu.com','http://www.sina.com']
for url in url_syn:     #同步串行执行程序
    f(url)
print("同步 time:",time.time()-start_time)

asyn_start_time=time.time()
gevent.joinall([                #用协程的方式异步并行执行程序
    gevent.spawn(f,'http://www.qq.com'),
    gevent.spawn(f,'http://www.sohu.com'),
    gevent.spawn(f,'http://www.sina.com')
])
print("异步 time:",time.time()-asyn_start_time)

执行结果:

get : http://www.qq.com
244375 bytes recv from http://www.qq.com.
get : http://www.sohu.com
208097 bytes recv from http://www.sohu.com.
get : http://www.sina.com
541392 bytes recv from http://www.sina.com.
同步 time: 0.994990348815918
get : http://www.qq.com
get : http://www.sohu.com
get : http://www.sina.com
51196 bytes recv from http://www.qq.com.
208125 bytes recv from http://www.sohu.com.
541392 bytes recv from http://www.sina.com.
异步 time: 0.5029268264770508

可以看到用同步的方式执行耗时0.99秒,用异步的方式执行只用0.5秒

 

通过gevent实现单线程下的多socket并发

server side 

import sys
import socket
import time
import gevent
 
from gevent import socket,monkey
monkey.patch_all()
 
 
def server(port):
    s = socket.socket()
    s.bind(('0.0.0.0', port))
    s.listen(500)
    while True:
        cli, addr = s.accept()    #cli是socket建立连接后的一个socket实例
        gevent.spawn(handle_request, cli)
 
 
 
def handle_request(conn):
    try:
        while True:
            data = conn.recv(1024)
            print("recv:", data)
            conn.send(data)
            if not data:
                conn.shutdown(socket.SHUT_WR)
 
    except Exception as  ex:
        print(ex)
    finally:
        conn.close()
if __name__ == '__main__':
    server(8001)

client side 

import socket
 
HOST = 'localhost'    # The remote host
PORT = 8001           # The same port as used by the server
s = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
s.connect((HOST, PORT))
while True:
    msg = bytes(input(">>:"),encoding="utf8")
    s.sendall(msg)
    data = s.recv(1024)
    #print(data)
 
    print('Received', repr(data))
s.close()

并发100个socket连接:

import socket
import threading

def sock_conn():

    client = socket.socket()

    client.connect(("localhost",8001))
    count = 0
    while True:
        #msg = input(">>:").strip()
        #if len(msg) == 0:continue
        client.send( ("hello %s" %count).encode("utf-8"))

        data = client.recv(1024)

        print("[%s]recv from server:" % threading.get_ident(),data.decode()) #结果
        count +=1
    client.close()


for i in range(100):
    t = threading.Thread(target=sock_conn)
    t.start()

 

三、事件驱动与异步IO

通常,我们写服务器处理模型的程序时,有以下几种模型:
(1)每收到一个请求,创建一个新的进程,来处理该请求;
(2)每收到一个请求,创建一个新的线程,来处理该请求;
(3)每收到一个请求,放入一个事件列表,让主进程通过非阻塞I/O方式来处理请求
上面的几种方式,各有千秋,
第(1)中方法,由于创建新的进程的开销比较大,所以,会导致服务器性能比较差,但实现比较简单。
第(2)种方式,由于要涉及到线程的同步,有可能会面临死锁等问题。
第(3)种方式,在写应用程序代码时,逻辑比前面两种都复杂。
综合考虑各方面因素,一般普遍认为第(3)种方式是大多数网络服务器采用的方式
 

看图说话讲事件驱动模型

在UI编程中,常常要对鼠标点击进行相应,首先如何获得鼠标点击呢?
方式一:创建一个线程,该线程一直循环检测是否有鼠标点击,那么这个方式有以下几个缺点
1. CPU资源浪费,可能鼠标点击的频率非常小,但是扫描线程还是会一直循环检测,这会造成很多的CPU资源浪费;如果扫描鼠标点击的接口是阻塞的呢?
2. 如果是堵塞的,又会出现下面这样的问题,如果我们不但要扫描鼠标点击,还要扫描键盘是否按下,由于扫描鼠标时被堵塞了,那么可能永远不会去扫描键盘;
3. 如果一个循环需要扫描的设备非常多,这又会引来响应时间的问题;
所以,该方式是非常不好的。

方式二:就是事件驱动模型
目前大部分的UI编程都是事件驱动模型,如很多UI平台都会提供onClick()事件,这个事件就代表鼠标按下事件。事件驱动模型大体思路如下:
1. 有一个事件(消息)队列;
2. 鼠标按下时,往这个队列中增加一个点击事件(消息);
3. 有个循环,不断从队列取出事件,根据不同的事件,调用不同的函数,如onClick()、onKeyDown()等;
4. 事件(消息)一般都各自保存各自的处理函数指针,这样,每个消息都有独立的处理函数;

 

 

 

事件驱动编程是一种编程范式,这里程序的执行流由外部事件来决定。它的特点是包含一个事件循环,当外部事件发生时使用回调机制来触发相应的处理。另外两种常见的编程范式是(单线程)同步以及多线程编程。

让我们用例子来比较和对比一下单线程、多线程以及事件驱动编程模型。下图展示了随着时间的推移,这三种模式下程序所做的工作。这个程序有3个任务需要完成,每个任务都在等待I/O操作时阻塞自身。阻塞在I/O操作上所花费的时间已经用灰色框标示出来了。

在单线程同步模型中,任务按照顺序执行。如果某个任务因为I/O而阻塞,其他所有的任务都必须等待,直到它完成之后它们才能依次执行。这种明确的执行顺序和串行化处理的行为是很容易推断得出的。如果任务之间并没有互相依赖的关系,但仍然需要互相等待的话这就使得程序不必要的降低了运行速度。

在多线程版本中,这3个任务分别在独立的线程中执行。这些线程由操作系统来管理,在多处理器系统上可以并行处理,或者在单处理器系统上交错执行。这使得当某个线程阻塞在某个资源的同时其他线程得以继续执行。与完成类似功能的同步程序相比,这种方式更有效率,但程序员必须写代码来保护共享资源,防止其被多个线程同时访问。多线程程序更加难以推断,因为这类程序不得不通过线程同步机制如锁、可重入函数、线程局部存储或者其他机制来处理线程安全问题,如果实现不当就会导致出现微妙且令人痛不欲生的bug。

在事件驱动版本的程序中,3个任务交错执行,但仍然在一个单独的线程控制中。当处理I/O或者其他昂贵的操作时,注册一个回调到事件循环中,然后当I/O操作完成时继续执行。回调描述了该如何处理某个事件。事件循环轮询所有的事件,当事件到来时将它们分配给等待处理事件的回调函数。这种方式让程序尽可能的得以执行而不需要用到额外的线程。事件驱动型程序比多线程程序更容易推断出行为,因为程序员不需要关心线程安全问题。

当我们面对如下的环境时,事件驱动模型通常是一个好的选择:

  1. 程序中有许多任务,而且…
  2. 任务之间高度独立(因此它们不需要互相通信,或者等待彼此)而且…
  3. 在等待事件到来时,某些任务会阻塞。

当应用程序需要在任务间共享可变的数据时,这也是一个不错的选择,因为这里不需要采用同步处理。

网络应用程序通常都有上述这些特点,这使得它们能够很好的契合事件驱动编程模型。

 此处要提出一个问题,就是,上面的事件驱动模型中,只要一遇到IO就注册一个事件,然后主程序就可以继续干其它的事情了,只到io处理完毕后,继续恢复之前中断的任务,这本质上是怎么实现的呢?

 

四、IO多路复用

对于一次IO访问(以read举例),数据会先被拷贝到操作系统内核的缓冲区中,然后才会从操作系统内核的缓冲区拷贝到应用程序的地址空间。所以说,当一个read操作发生时,它会经历两个阶段:
1. 等待数据准备 (Waiting for the data to be ready)
2. 将数据从内核拷贝到进程中 (Copying the data from the kernel to the process)

正式因为这两个阶段,linux系统产生了下面五种网络模式的方案。
- 阻塞 I/O(blocking IO)
- 非阻塞 I/O(nonblocking IO)
- I/O 多路复用( IO multiplexing)
- 信号驱动 I/O( signal driven IO)
- 异步 I/O(asynchronous IO)

这里只讲I/O多路复用

I/O 多路复用( IO multiplexing)

IO multiplexing就是我们说的select,poll,epoll,有些地方也称这种IO方式为event driven IO。select/epoll的好处就在于单个process就可以同时处理多个网络连接的IO。它的基本原理就是select,poll,epoll这个function会不断的轮询所负责的所有socket,当某个socket有数据到达了,就通知用户进程。

 

 

当用户进程调用了select,那么整个进程会被block,而同时,kernel会“监视”所有select负责的socket,当任何一个socket中的数据准备好了,select就会返回。这个时候用户进程再调用read操作,将数据从kernel拷贝到用户进程。

所以,I/O 多路复用的特点是通过一种机制一个进程能同时等待多个文件描述符,而这些文件描述符(套接字描述符)其中的任意一个进入读就绪状态,select()函数就可以返回。

这个图和blocking IO的图其实并没有太大的不同,事实上,还更差一些。因为这里需要使用两个system call (select 和 recvfrom),而blocking IO只调用了一个system call (recvfrom)。但是,用select的优势在于它可以同时处理多个connection。

所以,如果处理的连接数不是很高的话,使用select/epoll的web server不一定比使用multi-threading + blocking IO的web server性能更好,可能延迟还更大。select/epoll的优势并不是对于单个连接能处理得更快,而是在于能处理更多的连接。)

在IO multiplexing Model中,实际中,对于每一个socket,一般都设置成为non-blocking,但是,如上图所示,整个用户的process其实是一直被block的。只不过process是被select这个函数block,而不是被socket IO给block。

select 
select最早于1983年出现在4.2BSD中,它通过一个select()系统调用来监视多个文件描述符的数组,当select()返回后,该数组中就绪的文件描述符便会被内核修改标志位,使得进程可以获得这些文件描述符从而进行后续的读写操作。

select目前几乎在所有的平台上支持,其良好跨平台支持也是它的一个优点,事实上从现在看来,这也是它所剩不多的优点之一。

select的一个缺点在于单个进程能够监视的文件描述符的数量存在最大限制,在Linux上一般为1024,不过可以通过修改宏定义甚至重新编译内核的方式提升这一限制。

另外,select()所维护的存储大量文件描述符的数据结构,随着文件描述符数量的增大,其复制的开销也线性增长。同时,由于网络响应时间的延迟使得大量TCP连接处于非活跃状态,但调用select()会对所有socket进行一次线性扫描,所以这也浪费了一定的开销。

poll 
poll在1986年诞生于System V Release 3,它和select在本质上没有多大差别,但是poll没有最大文件描述符数量的限制。

poll和select同样存在一个缺点就是,包含大量文件描述符的数组被整体复制于用户态和内核的地址空间之间,而不论这些文件描述符是否就绪,它的开销随着文件描述符数量的增加而线性增大。

另外,select()和poll()将就绪的文件描述符告诉进程后,如果进程没有对其进行IO操作,那么下次调用select()和poll()的时候将再次报告这些文件描述符,所以它们一般不会丢失就绪的消息,这种方式称为水平触发(Level Triggered)。

epoll 
直到Linux2.6才出现了由内核直接支持的实现方法,那就是epoll,它几乎具备了之前所说的一切优点,被公认为Linux2.6下性能最好的多路I/O就绪通知方法。

epoll可以同时支持水平触发和边缘触发(Edge Triggered,只告诉进程哪些文件描述符刚刚变为就绪状态,它只说一遍,如果我们没有采取行动,那么它将不会再次告知,这种方式称为边缘触发),理论上边缘触发的性能要更高一些,但是代码实现相当复杂。

epoll同样只告知那些就绪的文件描述符,而且当我们调用epoll_wait()获得就绪文件描述符时,返回的不是实际的描述符,而是一个代表就绪描述符数量的值,你只需要去epoll指定的一个数组中依次取得相应数量的文件描述符即可,这里也使用了内存映射(mmap)技术,这样便彻底省掉了这些文件描述符在系统调用时复制的开销。

另一个本质的改进在于epoll采用基于事件的就绪通知方式。在select/poll中,进程只有在调用一定的方法后,内核才对所有监视的文件描述符进行扫描,而epoll事先通过epoll_ctl()来注册一个文件描述符,一旦基于某个文件描述符就绪时,内核会采用类似callback的回调机制,迅速激活这个文件描述符,当进程调用epoll_wait()时便得到通知。
select、poll、epoll三者的区别

nginx就是用epoll实现高并发

 

select 多并发socket 例子

import select
import socket
import sys
import queue


server = socket.socket()
server.setblocking(0)

server_addr = ('localhost',10000)

print('starting up on %s port %s' % server_addr)
server.bind(server_addr)

server.listen(5)


inputs = [server, ] #自己也要监测呀,因为server本身也是个fd
outputs = []

message_queues = {}

while True:
    print("waiting for next event...")

    readable, writeable, exeptional = select.select(inputs,outputs,inputs) #如果没有任何fd就绪,那程序就会一直阻塞在这里

    for s in readable: #每个s就是一个socket

        if s is server: #别忘记,上面我们server自己也当做一个fd放在了inputs列表里,传给了select,如果这个s是server,代表server这个fd就绪了,
            #就是有活动了, 什么情况下它才有活动? 当然 是有新连接进来的时候 呀
            #新连接进来了,接受这个连接
            conn, client_addr = s.accept()
            print("new connection from",client_addr)
            conn.setblocking(0)
            inputs.append(conn) #为了不阻塞整个程序,我们不会立刻在这里开始接收客户端发来的数据, 把它放到inputs里, 下一次loop时,这个新连接
            #就会被交给select去监听,如果这个连接的客户端发来了数据 ,那这个连接的fd在server端就会变成就续的,select就会把这个连接返回,返回到
            #readable 列表里,然后你就可以loop readable列表,取出这个连接,开始接收数据了, 下面就是这么干 的

            message_queues[conn] = queue.Queue() #接收到客户端的数据后,不立刻返回 ,暂存在队列里,以后发送

        else: #s不是server的话,那就只能是一个 与客户端建立的连接的fd了
            #客户端的数据过来了,在这接收
            data = s.recv(1024)
            if data:
                print("收到来自[%s]的数据:" % s.getpeername()[0], data)
                message_queues[s].put(data) #收到的数据先放到queue里,一会返回给客户端
                if s not  in outputs:
                    outputs.append(s) #为了不影响处理与其它客户端的连接 , 这里不立刻返回数据给客户端


            else:#如果收不到data代表什么呢? 代表客户端断开了呀
                print("客户端断开了",s)

                if s in outputs:
                    outputs.remove(s) #清理已断开的连接

                inputs.remove(s) #清理已断开的连接

                del message_queues[s] ##清理已断开的连接


    for s in writeable:
        try :
            next_msg = message_queues[s].get_nowait()

        except queue.Empty:
            print("client [%s]" %s.getpeername()[0], "queue is empty..")
            outputs.remove(s)

        else:
            print("sending msg to [%s]"%s.getpeername()[0], next_msg)
            s.send(next_msg.upper())


    for s in exeptional:
        print("handling exception for ",s.getpeername())
        inputs.remove(s)
        if s in outputs:
            outputs.remove(s)
        s.close()

        del message_queues[s]
server
import socket
import sys

messages = [ b'This is the message. ',
             b'It will be sent ',
             b'in parts.',
             ]
server_address = ('localhost', 10000)

# Create a TCP/IP socket
socks = [ socket.socket(socket.AF_INET, socket.SOCK_STREAM),
          socket.socket(socket.AF_INET, socket.SOCK_STREAM),
          ]

# Connect the socket to the port where the server is listening
print('connecting to %s port %s' % server_address)
for s in socks:
    s.connect(server_address)

for message in messages:

    # Send messages on both sockets
    for s in socks:
        print('%s: sending "%s"' % (s.getsockname(), message) )
        s.send(message)

    # Read responses on both sockets
    for s in socks:
        data = s.recv(1024)
        print( '%s: received "%s"' % (s.getsockname(), data) )
        if not data:
            print(sys.stderr, 'closing socket', s.getsockname() )
client

 

selectors模块

posted @ 2020-03-16 00:27  jehuzzh  阅读(206)  评论(0编辑  收藏  举报