// Fork me on GitHub

python进程、线程、协程的介绍及使用

一、必备的理论基础

操作系统理论:
操作系统是一个协调\管理\控制计算机硬件资源与应用软件资源的控制程序

操作系统的两大功能:

    1. 将复杂的硬件操作封装成简单的接口给应用程序或者用户去使用
    2. 将多个进程对硬件的竞争变得有序

二、进程理论

2.1什么是进程?

进程指的是一个正在进行/运行的程序,进程是用来描述程序执行过程的虚拟概念。

进程的概念起源于操作系统,进程是操作系统最核心的概念,操作系统其它所有的概念都是围绕进程的。

进程vs程序:

  • 进程:程序执行的过程
  • 程序:一堆代码

 

2.2 多道技术

单道:一条道走道黑 ---->串行
多道技术:多道技术中的多道指的是多个程序,多道技术是为了解决多个程序竞争或者说共享同一个资源(比如cpu)的有序调度问题,解决方式即多路复用,多路复用分为时间上的复用和空间上的复用。

1. 空间上的复用:内存中同时有多道(个)程序

2. 时间上的复用:多道程序复用(共用)cpu的时间,切换+保存状态

    • 当执行程序遇到IO时,操作系统会将CPU的执行权限剥夺。
      优点: CPU的执行效率提高
    • 当执行程序执行时间过长时,操作系统会将CPU的执行权限剥夺。
      缺点: 程序的执行效率低

 

 

 

2.3 并发与并行:

串行: 一个任务完完整整地运行完成,才能运行下一个任务

并发: 在单核(一个cpu)情况下,当执行两个A,B程序时,A先执行,当A遇到IO时,B开始争抢cpu的执行权限,再让B执行,他们看起像同时运行。
并行:在多核(多个cpu)的情况下,当执行两个A,B程序时,A与B同时执行。他们是真正意义上的同时运行

 

 

 

2.4 进程调度:

要想多个进程交替运行,操作系统必须对这些进程进行调度,这个调度也不是随即进行的,而是需要遵循一定的法则,由此就有了进程的调度算法。

  1. 先来先服务调度算法(了解)
    - 比如程序 a,b,若a先来,则让a先服务,待a服务完毕后,b再服务。
    - 缺点:执行效率低。

  2. 短作业优先调度算法(了解)
    - 执行时间越短,则先调度。
    - 缺点:导致执行时间长的程序,需要等待所有时间短的程序执行完毕后,才能执行。

现代操作系统的进程调度算法: 时间片轮转法 + 多级反馈队列

    1. 时间片轮转法
      - 将CPU的执行时间,等分成N个时间片。比如同时有10个程序需要执行,操作系统会给你10秒,然后时间片轮转法会将10秒分成10等分。

    2. 多级反馈队列
      1级队列: 优先级最高
      2级队列: 优先级次高
      3级队列: 优先级当前最低

2.5 同步与异步

同步与异步 指的是 “提交任务的方式”

同步(串行): 若有两个任务需要提交,在提交第一个任务时,必须等待该任务运行完毕拿到结果后,才能继续提交并执行第二个任务,会导致任务是串行执行的。
如两个a,b程序都要提交并执行,假如a先提交执行,b必须等a执行完毕后,才能提交任务。

异步(并发): 若有两个任务需要提交,在提交第一个任务时,不需要原地等待,立即可以提交并执行第二个任务,会导致任务是并发执行的。
如两个a,b程序都要提交并执行,假如a先提交并执行,b无需等a执行完毕,就可以直接提交任务。

2.6 阻塞与非阻塞

阻塞(等待): 凡是遇到 IO 都会阻塞。

IO:

  • input()
  • print()
  • time.sleep(3)
  • 文件的读写
  • 数据的传输

非阻塞 (不等待) : 除了IO都是非阻塞 (比如: 从1+1开始计算到100万)

 

 

 

3.7 进程的三种状态

  1. 就绪态:所有任务提交完毕后,就会进入就绪态

  2. 运行态:通过进程调度一个任务开始执行,该任务进入运行态
    - 程序的执行时间过长 ----> 将程序返回给就绪态,等待下次调度。
    - 非阻塞

  3. 阻塞态:凡是遇到IO操作的任务都会进入阻塞态,待IO操作结束,则阻塞态结束,进入就绪态,等待下次调度。

问题:阻塞与同步是一样的吗?非阻塞与异步是一样的吗?

  • 同步与异步: 提交任务的方式

  • 阻塞与非阻塞: 进程的状态。

异步非阻塞: ----> CPU的利用率最大化(通过并发对程序进程操作)

2.8 创建进程的两种方式

from multiprocessing import Process    #Process 是一个类
import time

#开启子进程方式一:直接调用Process

def task(name):
    print(f'{name} is running')
    time.sleep(3)
    print(f'{name} is done')

# 在windows系统上,开启子进程的操作必须要到if __name__ == '__main__':的子代码下面去
if __name__ == '__main__':
    #target=任务(函数地址) ---> 创建一个子进程
    obj = Process(target=task,args=('egon',))    #args必须传一个元组的形式
    obj.start()  # 只是向操作系统发送了一个开启子进程的信号

    print('')   #代表主进程


#开启子进程方式二:
class Myprocess(Process):
    def __init__(self,name):
        super().__init__()
        self.name = name
    def run(self):  #函数名必须叫run
        print(f'{self.name} is running')
        time.sleep(3)
        print(f'{self.name} is done')

if __name__ == '__main__':
    obj = Myprocess('egon')
    obj.start()  #obj.start 自动调用run方法
    print('')   #代表主进程

join方法:让主进程在原地等待,等待子进程运行完毕后再运行,不会影响子进程的运行

#join:

from multiprocessing import Process    #Process 是一个类
import time

#开启子进程方式一:直接调用Process
def task(name,n):
    print(f'{name} is running')
    time.sleep(n)
    print(f'{name} is done')

# 在windows系统上,开启子进程的操作必须要到if __name__ == '__main__':的子代码下面去
if __name__ == '__main__':
    #target=任务(函数地址) ---> 创建一个子进程
    #异步提交3个任务
    obj1 = Process(target=task,args=('子1',1))    #args必须传一个元组的形式
    obj2 = Process(target=task,args=('子2',2))    #args必须传一个元组的形式
    obj3 = Process(target=task,args=('子3',3))    #args必须传一个元组的形式

    obj1.start()  # 只是向操作系统发送了一个开启子进程的信号
    obj2.start()  # 只是向操作系统发送了一个开启子进程的信号
    obj3.start()  # 只是向操作系统发送了一个开启子进程的信号

    obj1.join()    #主进程等obj1结束
    obj2.join()    #主进程等obj2结束
    obj3.join()    #主进程等obj3结束   #obj1与obj3谁在前谁在后无所谓
    print('')

上述代码冗余,改进如下

#join:让主进程在原地等待,等待子进程运行完毕,不会影响子进程的运行
from multiprocessing import Process    #Process 是一个类
import time


#开启子进程方式一:直接调用Process
def task(name,n):
    print(f'{name} is running')
    time.sleep(n)
    print(f'{name} is done')



# 在windows系统上,开启子进程的操作必须要到if __name__ == '__main__':的子代码下面去
if __name__ == '__main__':
    #target=任务(函数地址) ---> 创建一个子进程
    #异步提交
    obj_1 = []
    for i in range(1,4):

        obj = Process(target=task,args=('子%s' %i ,1))    #args必须传一个元组的形式
        obj_1.append(obj)
        obj.start()

    for obj in obj_1:
        obj.join()

    print('')



#开启子进程方式二:
class Myprocess(Process):
    def __init__(self,name):
        super().__init__()
        self.name = name
    def run(self):  #函数名必须叫run
        print(f'{self.name} is running')
        time.sleep(3)
        print(f'{self.name} is done')

if __name__ == '__main__':
    list1 = []
    for i in range(1,4):
        obj = Myprocess('子%s' %i)
        obj.start()  #obj.start 自动调用run方法
        list1.append(obj)

    for obj in list1:
        obj.join()
    print('')   #代表主进程

2.9 进程对象相关的其他属性或方法

2.9.1 进程PID

PID:每一个进程在操作系统内都有一个唯一的id号,称之为PID

from multiprocessing import Process,current_process
import time,os

# 第一种:current_process().pid
def task():
    print('子%s is running' % current_process().pid)
    time.sleep(2)
    print('子%s is done' %current_process().pid)

if __name__ == '__main__':
    p = Process(target=task,name='子进程1')  #name给子进程起名
    p.start()
    print(p.name)  #'子进程1'
    print('',current_process().pid)

#第二种:os.getpid(),os.getppid()
def task():
    print('子%s is running 爹是:%s' % (os.getpid(),os.getppid()))
    time.sleep(2)
    print('子%s is done 爹是:%s' % (os.getpid(),os.getppid()))
if __name__ == '__main__':
    p = Process(target=task)
    p.start()
    print('主:%s 主他爹:%s' % (os.getpid(),os.getppid()))

### 2.进程名字

2.9.2 子进程回收资源的两种方式:

  1. join让主进程等待子进程结束,并回收子进程资源,主进程再结束并回收资源。
  2. 主进程 “正常结束” ,子进程与主进程一并被回收资源。

2.10 进程间数据隔离

进程隔离是为保护操作系统中进程互不干扰而设计的一组不同硬件和软件的技术

这个技术是为了避免进程A写入进程B的情况发生。 进程的隔离实现,使用了虚拟地址空间。进程A的虚拟地址和进程B的虚拟地址不同,这样就防止进程A将数据信息写入进程B

进程隔离的安全性通过禁止进程间内存的访问可以方便实现

from multiprocessing import Process
import time

number = 10
def func():
    global number
    number = 20
    print(number)


if __name__ == '__main__':
    p_obj = Process(target=func)
    p_obj.start()
    p_obj.join()   #让子进程先运行

    print(number)  
    
执行结果:
20
10

2.11 僵尸进程与孤儿进程(了解)

僵尸进程 (有坏处):在子进程结束后,主进程没有结束, 子进程PID不会被回收。
缺点:

  • 操作系统中的PID号是有限的,如有子进程PID号无法正常回收,则会占用PID号。
  • 资源浪费。
  • 若PID号满了,则无法创建新的进程。

孤儿进程(没有坏处):在子进程没有结束时,主进程结束, 子进程PID不会被回收。

操作系统优化机制(孤儿院):

    • 当主进程意外终止,操作系统会检测是否有正在运行的子进程,会他们放入孤儿院中,让操作系统帮你自动回收。

2.12 守护进程

、守护进程

    1.1、什么是守护进程?

        1、守护进程会在主进程代码运行结束的情况下,立即挂掉。

        2、守护进程本身就是一个子进程。

        3、主进程在其代码结束后就已经算运行完毕了(守护进程在此时就被回收),然后主进程会一直等非守护的子进程都运行完毕后回收子进程的资源(否则会产生僵尸进程),才会结束,


    1.2、为什么要用守护进程?

        1、守护进程本身就是一个子进程,所以在主进程需要将任务并发执行的时候需要开启子进程。

        2、当该子进程执行的任务生命周期伴随着主进程的生命周期时,就需要将该子进程做成守护进程。

#主进程会等待所有的子进程结束,是为了回收子进程的资源
# 守护进程会等待主进程的代码执行结束之后再结束,而不是等待整个主进程结束.
# 主进程的代码什么时候结束,守护进程就什么时候结束,和其他子进程的执行进度无关
from multiprocessing import Process
import time


def task():
    print('is running')
    time.sleep(3)
    print('is done')

if __name__ == '__main__':
    obj = Process(target=task)

    #守护进程必须在obj.start()调用之前执行
    obj.daemon = True  #将子进程设置为守护进程
    obj.start()
    time.sleep(1)

    print('主进程结束')

2.13 进程互斥锁

互斥锁是一把锁,让并发变成串行, 牺牲了执行效率, 保证了数据安全

进程之间数据是不共享的,但是共享同一套文件系统,而共享带来的是竞争,竞争带来的结果就是错乱,如何控制,就是加锁处理,如抢票例子

from multiprocessing import Process
from multiprocessing import Lock    #---进程互斥锁
import json,time,random

#抢票例子:

#查票
def search(name):
    with open('db.json','rt',encoding='utf-8')as f:
        dic = json.load(f)
        time.sleep(1)
        print(f'%s 查看到余票为%s' %(name,dic['count']))

#购票
def get(name):
    with open('db.json','rt',encoding='utf-8')as f:
        dic = json.load(f)
    if dic['count'] > 0 :
        time.sleep(random.randint(1,3))
        dic['count'] -= 1
        with open('db.json','wt',encoding='utf-8')as f:
            json.dump(dic,f)
            print('%s购票成功' % name )


    else:
        print('没有票了')
def run(name,lock):
    search(name)   #并发
    lock.acquire()  #加锁
    get(name)    #串行
    lock.release()   #释放锁

if __name__ == '__main__':
    lock = Lock()   #产生一个互斥锁对象
    for i in range(10):
        p = Process(target=run,args=('路人%s' %i,lock))
        p.start()
        # p.join()  #join只能将进程的任务整体变成串行

2.14 队列(先进先出)

队列相当于一个第三方的管道,可以存放数据。
先进先出指的是先存放的数据就先取出来

应用:让进程之间的数据进行交互

 

 

from multiprocessing import Queue    #multiprocessing提供的队列
from multiprocessing import JoinableQueue  #基于Queue封装的队列
import queue  #python内置的队列,也是先进先出

#第一种:
# Queue(5)指的是队列中只能存放5个数据
q_obj1 = Queue(5)   #q_obj1队列对象   #第一种
# q_obj1 = queue.Queue(5)  #第二种
#q_obj1 = JoinableQueue(5)  #第三种
#添加数据到队列中
q_obj1.put('jason')
print('添加1个')
q_obj1.put('hcy')
print('添加1个')
q_obj1.put('bh')
print('添加1个')
q_obj1.put('tank')
print('添加1个')
q_obj1.put('zzc')
print('添加1个')


# q_obj1.put('第6个')  #put:只要队列满了,就会进入阻塞
# print('第6个')
# q_obj1.put_nowait('sean') #只要数据满了就会报错

#get:只要队列中有数据,就能获取数据,若没有则会进入阻塞
print(q_obj1.get())
print(q_obj1.get())
print(q_obj1.get())
print(q_obj1.get())
print(q_obj1.get())
print(q_obj1.get())   #到这步已经没有数据了
# print(q_obj1.get_nowait())  #get_nowait:若队列中没有数据获取则会报错

2.15 IPC机制(进程间通信)

进程间数据是相互隔离的,若想实现进程间通信,可以利用队列

from multiprocessing import Process
from multiprocessing import JoinableQueue
import time

def task1(q):
    q.put(100)
    print('添加数据100')

    time.sleep(3)
    print(q.get())


def task2(q):
    #想要在task2中获取task1的100
    res = q.get()
    print(f'获取的数据是{res}')
    q.put(9527)


if __name__ == '__main__':
    #产生队列
    q = JoinableQueue()
    #产生两个不同的子进程
    p1 = Process(target=task1,args=(q,))
    p2 = Process(target=task2,args=(q,))

    p1.start()
    p2.start()

执行结果:
添加数据100
获取的数据是100
9527

2.16 生产者消费者模型

生产者:代指生产数据的
消费者:代指使用数据的
该模型的工作方式:生成数据传递消费者处理
实现方式:生产者---->队列<-----消费者
此模型是为了解决供需不平衡问题。
from multiprocessing import JoinableQueue
from multiprocessing import Process
import time
#生产者:生成数据放到队列中
def producer(name,food,q):
    msg = f'{name}生产了{food}'

    q.put(food)      #生产一个食物,添加到队列中
    print(msg)

#消费者:使用的数据 从队列中获取
def customer(name,q):
    while True:
        try:
            time.sleep(1)
            #若报错,则跳出循环
            food = q.get_nowait()
            msg = f'{name}吃了{food}食物!'
            print(msg)
        except Exception:
            break

if __name__ == '__main__':
    q = JoinableQueue()
    #创建10个生产者
    for line in range(10):
        p1 = Process(target=producer,args=('tank1',f'油条{line}',q,))
        p1.start()

    #创建两个消费者
    c1 = Process(target=customer,args=('jason',q))
    c2 = Process(target=customer,args=('egon',q))
    c1.start()
    c2.start()

三、线程理论

3.1 什么是线程?

进程其实是一个资源单位,而进程内的线程才是cpu的执行单位。线程其实指的就是代码的执行过程。

进程就好比划了块地,在这块地上开了一个车间,而线程好比车间里的一条或多条流水线,真正运行的也就是流水线。那每个车间必须至少有一条流水线吧。

注意:开启一个进程,一定会自带一个线程,线程才是真正地执行者

3.2 为什么要使用线程?

可以节省内存资源。

进程vs线程

  • 开启进程:
  1. 会产生一个内存空间,申请一块资源。
  2. 会自带一个主线程。
  3. 开启子进程的速度要比开启子线程的速度慢
  • 开启线程:
  1. 一个进程内可以开启多个线程,从进程的内存空间中申请资源。
  2. 节省资源。

强调:进程之间数据是隔离的,同一进程下多个线程共享该进程的数据,如下所示

n = 100
def task():
    global n
    n = 0

if __name__ == '__main__':
    t = Thread(target=task)
    t.start()
    t.join()
    print('',n)  # n为0

3.3 如何使用?

开启线程的两种方式:

from threading import Thread
import time

# 开启方式一:
def task():
    print('start...')  #最先打印,因为开启线程的速度要比进程的快
    time.sleep(1)
    print('end...')  #因为睡了1秒,最后打印

if __name__ == '__main__':
    #开启一个子线程
    t = Thread(target=task)
    t.start()
    print('主进程(主线程)...')     #其次打印


# 开启方式二:
class Mythread(Thread):
    def run(self):
        print('start...')  #最先打印,因为开启线程的速度要比进程的快
        time.sleep(1)
        print('end...')  #因为睡了1秒,最后打印

if __name__ == '__main__':
    #开启一个子线程
    t = Mythread()
    t.start()
    print('主进程(主线程)...')     #其次打印
示例2:
# 面向对象的方式起线程
# from threading import Thread
# class MyThread(Thread):
# def __init__(self,a,b):
# self.a = a
# self.b = b
# super().__init__()
#
# def run(self):
# print(self.ident)
#
# t = MyThread(1,2)
# t.start() # 开启线程 才在线程中执行run方法
# print(t.ident)
 

3.4,线程相关的其他属性或方法

from threading import Thread,active_count,current_thread
import time,os

def task():
    print('%s is running' %current_thread().name) #查看子线程名
    time.sleep(2)
    print('%s is done' %os.getpid())  #查看子线程 PID号

if __name__ == '__main__':
    t=Thread(target=task,)
    t.start()
    # t.join()
    # print('主',active_count())  #查看运行的线程数:2
    print('',current_thread().name)  #查看主线程的名字

4.5 线程互斥锁

#未加互斥锁状态:

from threading import Thread,Lock
import time

n = 100
def task():
    global n
    temp = n        #每个线程的temp值都为100,temp不是与n绑定,而是temp与h的值绑定
    time.sleep(0.1)    #等100个线程全造完      如果没有阻塞n的输出结果为0
    n = temp-1         #如果这句在另一个线程的temp=n的后面执行,temp的值就没有得到跟新。顺序落后的原因是:cup切到另一个线程上去了。切掉之后上一线程的最终结果可能无法保留到下一个线程

if __name__ == '__main__':
    t_1 = []
    for i in range(100):
        t =Thread(target=task)
        t_1.append(t)
        t.start()

    for t in t_1:
        t.join()
    print(n)  # n-->99

tip:
a=1
temp=a
a=2
print(temp) temp=1
 
#加互斥锁状态:
from threading import Thread,Lock
import time
mutex = Lock()
n = 100
def task():

    global n        #每个线程拿到初始值n为100
    mutex.acquire()
    temp = n           #这里的每个线程拿到的n为100,99,98...
    time.sleep(0.1)   #等100个线程全造完
    n = temp-1
    mutex.release()

if __name__ == '__main__':
    t_1 = []
    for i in range(100):
        t =Thread(target=task)
        t_1.append(t)
        t.start()

    for t in t_1:
        t.join()
    print(n)    # n-->0

补充:
# from threading import Thread
# n = 0
# def add():
# for i in range(500000):
# global n #再改之前切掉了 n-1 qie n=(n-1)
# n -=1
# def sub():
# for i in range(500000):
# global n
# n +=1
#
# t_l = []
# for i in range(2):
# t1 = Thread(target=add)
# t1.start()
# t2 = Thread(target=sub)
# t2.start()
# t_l.append(t1)
# t_l.append(t2)
# for t in t_l:
# t.join()
# print(n)

# from threading import Thread
# import time
# n = []
# def append():
# for i in range(500000):
# n.append(1)
# def pop():
# for i in range(500000):
# if not n:
# time.sleep(0.0000001)
# n.pop()
#
# t_l = []
# for i in range(20):
# t1 = Thread(target=append)
# t1.start()
# t2 = Thread(target=pop)
# t2.start()
# t_l.append(t1)
# t_l.append(t2)
# for t in t_l:
# t.join()
# print(n)


# += -= *= /= while if 数据不安全 + 和 赋值是分开的两个操作
# append pop strip数据安全 列表中的方法或者字典中的方法去操作全局变量的时候 数据安全的
# 线程之间也存在数据不安全

# import dis
# a = 0
# def func():
# global a
# a += 1
'''
56 0 LOAD_GLOBAL 0 (a)
2 LOAD_CONST 1 (1)
4 INPLACE_ADD
# GIL锁切换了
6 STORE_GLOBAL 0 (a)
'''

# dis.dis(func)

# import dis
# a = []
# def func():
# a.append(1)
#
# dis.dis(func)
'''
70 0 LOAD_GLOBAL 0 (a)
2 LOAD_ATTR 1 (append)
4 LOAD_CONST 1 (1)
6 CALL_FUNCTION 1 #线程里的某个函数是原子性操作,函数内部不是原子性操作,像+=就不是原子性操作
8 POP_TOP
'''





import time
from threading import Thread
n = 0
def add():
for i in range(10):
global n
n =2
time.sleep(1)
print(n)
n=3
def sub():
for i in range(10):
global n
n=3
time.sleep(1)


t_l = []
for i in range(2):
t1 = Thread(target=add)
t1.start()
t2 = Thread(target=sub)
t2.start()
t_l.append(t1)
t_l.append(t2)
for t in t_l:
t.join()
#print(n)




 

 

3.6 线程池与进程池

进程池是用来限制创建的进程数。
线程池是用来限制创建的线程数。

# 什么是池
# 要在程序开始的时候,还没提交任务先创建几个线程或者进程
# 放在一个池子里,这就是池
# 为什么要用池?
# 如果先开好进程/线程,那么有任务之后就可以直接使用这个池中的数据了
# 并且开好的线程或者进程会一直存在在池中,可以被多个任务反复利用
# 这样极大的减少了开启\关闭\调度线程/进程的时间开销
# 池中的线程/进程个数控制了操作系统需要调度的任务个数,控制池中的单位
# 有利于提高操作系统的效率,减轻操作系统的负担
# 发展过程
# threading模块 没有提供池
# multiprocessing模块 仿照threading写的 Pool
# concurrent.futures模块 线程池,进程池都能够用相似的方式开启\使用
from concurrent.futures import ThreadPoolExecutor
import time

# 让pool只能创建100个线程
pool = ThreadPoolExecutor(100)  #pool为线程池对象

def task(line):
    print(line)
    time.sleep(3)
    
if __name__ == '__main__':
    for line in range(1000):
        #异步提交任务
        pool.submit(task, line)
        #同步提交任务
        # res = pool.submit(task,line).result()  #原地等拿到结果
        #print(res)
from concurrent.futures import ThreadPoolExecutor
import time
import random
# 让pool只能创建100个线程
pool = ThreadPoolExecutor(10)  #pool为线程池对象


def task(line):
    print(line)
    time.sleep(random.randint(1,2))
    return '小仓'

if __name__ == '__main__':
    l =[]
    for line in range(50):
        #异步提交任务
        # pool.submit(task, line)
        # res = pool.submit(task,line).result()    #res拿到task任务提交后返回的结果
        # print(res)
        future = pool.submit(task,line)
        l.append(future)
    pool.shutdown(wait=True) #关闭进程池的入口,并且在原地等待进程池内所有任务运行完毕
    for future in l:
        print(future.result())
    print('')

#使用字典获取
if __name__ == '__main__':
tp = ProcessPoolExecutor(4)
futrue_l = {}
for i in range(20): # 异步非阻塞的
ret = tp.submit(func,i,b=i+1)
futrue_l[i] = ret#绑定
#print('--',ret.result()) # Future未来对象 ret.result会有阻塞效果
for key in futrue_l: # 同步阻塞的
print(key,futrue_l[key].result())

 

回调函数: add_done_callback

from concurrent.futures import ThreadPoolExecutor
import time

pool = ThreadPoolExecutor(50)
def task1(n):
    print(f'from task1...{n}')
    time.sleep(3)
    return 'baohan'
def get_result(obj):
    result = obj.result()
    print(result)

if __name__ == '__main__':
    n = 1
    while True:
        # add_done_callback(参数1), 会将submit提交的task1执行返回的结果,传给get_result中的第一个参数,
        # 第一个参数是一个对象。
        pool.submit(task1,n).add_done_callback(get_result)
        n += 1
from concurrent.futures import ThreadPoolExecutor
from concurrent.futures import ProcessPoolExecutor
import time,os,requests

def get(url):
    print('%s GET %s' %(os.getpid(),url))
    time.sleep(3)
    response = requests.get(url)
    if response.status_code == 200:
        res = response.text
    else:
        res = '下载失败'
    return res

def parse(future):
    time.sleep(1)
    res = future.result()
    print('%s 解析结果为%s' %(os.getpid(),len(res)))

if __name__ == '__main__':
    urls=['https://www.baidu.com',
    'https://www.sina.com',
    'https://www.tmall.com',
    'https://www.jd.com',
    'https://www.baidu.com',
    'https://www.baidu.com',
    'https://www.baidu.com',]

    p = ProcessPoolExecutor(7)
    l=[]
    for url in urls:
        future = p.submit(get,url)
        # parse会在任务运行完毕后自动触发,然后接收一个参数future对象
        # 结果future对象会在任务运行完毕后自动传给回调函数
        future.add_done_callback(parse)      parse是回调函数,add_done_callback()是中间函数
        l.append(future)
    p.shutdown(wait=True)
    print('')

3.7 GIL全局解释器锁

什么是GIL?

GIL全局解释器锁,本质上就是一把互斥锁,保证数据安全。
在Cpython解释器中,每个进程内都会存在一把GIL,同一进程内的每个线程必须要抢到GIL后才能执行自己的代码。

同一个进程下开启的多线程,同一时刻只能有一个线程执行,无法利用多核优势。即无法实现并行,但可以实现并发。

GIL与多线程

PS:

  1. cpu是用来计算的,不是用来做I/O的
  2. 多cpu,意味着可以有多个核并行完成计算,所以多核提升的是计算性能
  3. 每个cpu一旦遇到I/O阻塞,仍然需要等待,所以多核对I/O操作没什么用处
#分析:
我们有四个任务需要处理,若实现并发的效果,解决方案可以是:
方案一:开启四个进程
方案二:一个进程下,开启四个线程

#单核情况下,分析结果: 
  如果四个任务是计算密集型,没有多核来并行计算,方案一徒增了创建进程的开销,方案二胜
  如果四个任务是I/O密集型,方案一创建进程的开销大,且进程的切换速度远不如线程,方案二胜

#多核情况下,分析结果:
  如果四个任务是计算密集型,多核意味着并行计算,在python中一个进程中同一时刻只有一个线程执行用不上多核,方案一胜
  如果四个任务是I/O密集型,再多的核也解决不了I/O问题,方案二胜

 
结论:现在的计算机基本上都是多核,python对于计算密集型的任务开多线程的效率并不能带来多大性能上的提升,甚至不如串行(没有大量切换),
但是,对于IO密集型的任务效率还是有显著提升的

总结:
计算密集型:多进程效率高
I/O密集型:多线程效率高

3.8 死锁与递归锁(了解)

from threading import Thread,Lock,RLock
import time

#
# #死锁
mutexA = Lock()
mutexB = Lock()

class Mythread(Thread):
    def run(self):
        self.f1()
        self.f2()

    def f1(self):
        mutexA.acquire()
        print('%s 抢到A锁' %self.name)
        mutexB.acquire()
        print('%s 抢到B锁' %self.name)
        mutexB.release()
        mutexA.release()
        pass
    def f2(self):
        mutexB.acquire()
        print('%s 抢到B锁' %self.name)
        time.sleep(2)  #足够其他99个线程起来了
        mutexA.acquire()
        print('%s 抢到A锁' %self.name)
        mutexA.release()
        mutexB.release()

if __name__ == '__main__':
    for i in range(100):
        t = Mythread()
        t.start()


#递归锁
mutexA = RLock()
mutexB = RLock()


class Mythread(Thread):
    def run(self):
        self.f1()
        self.f2()

    def f1(self):
        mutexA.acquire()
        print('%s 抢到A锁' %self.name)
        mutexB.acquire()
        print('%s 抢到B锁' %self.name)
        mutexB.release()
        mutexA.release()
        pass
    def f2(self):
        mutexB.acquire()
        print('%s 抢到了B锁' %self.name)
        time.sleep(2)  #足够其他99个线程起来了
        mutexA.acquire()
        print('%s 抢到了A锁' %self.name)
        mutexA.release()
        mutexB.release()

if __name__ == '__main__':
    for i in range(100):
        t = Mythread()
        t.start()

3.9 信号量(了解)

from threading import Semaphore,Thread
import time,random

sm = Semaphore(5)   #限制5个人同一时刻能拿到锁
def task(name):
    sm.acquire()
    print(f'{name}正在上厕所')
    time.sleep(random.randint(1,3))
    sm.release()

if __name__ == '__main__':
    for i in range(20):
        t = Thread(target=task,args=('路人%s' %i,))
        t.start()

3.10 Event事件(了解)

一个进程等其他进程结束后才能运行

from threading import Thread,Event
import time

# 模拟车等红绿灯
event = Event()

def light():
    print('红灯正亮着')
    time.sleep(3)
    event.set() #绿灯亮

def car(name):
    print('车%s正等绿灯' %name)
    event.wait()   #等绿灯
    print('车%s通行' %name)

if __name__ == '__main__':
    #红绿灯
    t1 = Thread(target=light)
    t1.start()
    #
    for i in range(10):
        t = Thread(target=car,args=(i,))
        t.start()

四、协程

什么是协程?

协程: 单线程下实现并发,协程可以理解为'协助'主线程(当主线程遇到io时,会切换到其他协程上去,所有任务之间都可以相互切换)
- 在IO密集型的情况下,使用协程能提高最高效率。

注意: 协程不是任何单位,只是一个程序员YY出来的东西,操作系统里面只有进程和线程的概念,(操作系统调度的是线程)

总结: 在单线程下实现多个任务间遇到IO就切换就可以降低单线程的IO时间,从而最大限度地提高单线程地效率。

协程的目的:
手动实现 "IO切换 + 保存状态" 去欺骗操作系统,让操作系统误以为没有IO操作,将CPU的执行权限给你。

from gevent import monkey  #猴子补丁
monkey.patch_all()   # 识别下列所有的任务是否有IO操作
from gevent import spawn   #spawn 任务
from gevent import joinall 
import time

def task1():
    print('start from task1...')
    time.sleep(3)
    print('end from task1...')

def task2():
    print('start from task2...')
    time.sleep(5)
    print('end from task2...')

if __name__ == '__main__':
    start_time = time.time()
    sp1 = spawn(task1)   #spawn 提交任务
    sp2 = spawn(task2)

    # sp1.join()
    # sp2.join()
    joinall([sp1,sp2])

    end_time = time.time()
    print(f'消耗时间: {end_time - start_time}')

示例2:
from gevent import monkey
monkey.patch_all() #这两句放到最上面
import time # socket
import gevent

def func(): # 带有io操作的内容写在函数里,然后提交func给gevent
print('start func')
gevent.sleep(1) #不是真正的睡一秒,而是切出来等待一秒
print('end func')#
x=time.time()
g1 = gevent.spawn(func) # 本质是一个线程,前5个可以认为是并发的 主现程遇到io才切到函数中 #
g2 = gevent.spawn(func)
print('aaa')

 补充内容:

# 进程
# 线程
    # 正常的开发语言 多线程可以利用多核
    # cpython解释器下的多个线程不能利用多核 : 规避了所有io操作的单线程        线程之间切换
# 协程
    # 是操作系统不可见的
    # 协程本质就是一条线程 多个任务在一条线程上来回切换                         一条线程中切换
    # 利用协程这个概念实现的内容 : 来规避IO操作,就达到了我们将一条线程中的io操作降到最低的目的

# import time
# def func1():
#     print('start')
#     time.sleep(1)
#     print('end')
#
# def func2():
#     print('start')
#     time.sleep(1)
#     print('end')

# 切换 并 规避io 的两个模块
# gevent =  利用了  greenlet    底层模块完成的切换 + 自动规避io的功能
# asyncio = 利用了  yield    底层语法完成的切换 + 自动规避io的功能
    # tornado 异步的web框架
    # yield from - 更好的实现协程
    # send - 更好的实现协程
    # asyncio模块 基于python原生的协程的概念正式的被成立
    # 特殊的在python中提供协程功能的关键字 : aysnc await

# 进程 数据隔离 数据不安全  操作系统级别  开销非常大  能利用多核
# 线程 数据共享 数据不安全  操作系统级别  开销小      不能利用多核   一些和文件操作相关的io只有操作系统能感知到
# 协程 数据共享 数据安全    用户级别      更小        不能利用多核   协程的所有的切换都基于用户,只有在用户级别能够感知到的io才会用协程模块做切换来规避(socket,请求网页的)

# 用户级别的协程还有什么好处:
    # 减轻了操作系统的负担
    # 一条线程如果开了多个协程,那么给操作系统的印象是线程很忙,这样能多争取一些时间片时间来被CPU执行,程序的效率就提高了
                    #少排几次队
# a = 1
# def func():
#     global a
#     # 切换
#     a += 1        #协程不会再字节码之间切换
#     # 切换
#
# import dis
# dis.dis(func)
# 对于操作系统 : python代码--> 编译 --> 字节码 --> 解释 --> 二进制010101010010101010
# 二进制 反编译过来的 --> LOAD_GLOBAL

# 4cpu
# 进程 :5个进程
# 线程 :20个
# 协程 :500个
# 5*20*500 = 50000
View Code

 

posted @ 2020-09-15 15:20  繁星春水  阅读(511)  评论(0编辑  收藏  举报
1 //2 3
//4