py17day09【异常处理,进程,多进程】
一、异常处理
1.程序中难免出现错误,而错误分成两种:
1.语法错误(这种错误,根本过不了python解释器的语法检测,必须在程序执行前就改正)
2.逻辑错误(逻辑错误)
2.什么是异常:
异常就是程序运行时发生错误的信号,在python中,错误触发的异常如下:

3.python中的异常种类:
在python中不同的异常可以用不同的类型(python中统一了类与类型,类型即类)去标识,不同的类对象标识不同的异常,一个异常标识一种错误
AttributeError 试图访问一个对象没有的树形,比如foo.x,但是foo没有属性x IOError 输入/输出异常;基本上是无法打开文件 ImportError 无法引入模块或包;基本上是路径问题或名称错误 IndentationError 语法错误(的子类) ;代码没有正确对齐 IndexError 下标索引超出序列边界,比如当x只有三个元素,却试图访问x[5] KeyError 试图访问字典里不存在的键 KeyboardInterrupt Ctrl+C被按下 NameError 使用一个还未被赋予对象的变量 SyntaxError Python代码非法,代码不能编译(个人认为这是语法错误,写错了) TypeError 传入对象类型与要求的不符合 UnboundLocalError 试图访问一个还未被设置的局部变量,基本上是由于另有一个同名的全局变量, 导致你以为正在访问它 ValueError 传入一个调用者不期望的值,即使值的类型是正确的
ArithmeticError
AssertionError
AttributeError
BaseException
BufferError
BytesWarning
DeprecationWarning
EnvironmentError
EOFError
Exception
FloatingPointError
FutureWarning
GeneratorExit
ImportError
ImportWarning
IndentationError
IndexError
IOError
KeyboardInterrupt
KeyError
LookupError
MemoryError
NameError
NotImplementedError
OSError
OverflowError
PendingDeprecationWarning
ReferenceError
RuntimeError
RuntimeWarning
StandardError
StopIteration
SyntaxError
SyntaxWarning
SystemError
SystemExit
TabError
TypeError
UnboundLocalError
UnicodeDecodeError
UnicodeEncodeError
UnicodeError
UnicodeTranslateError
UnicodeWarning
UserWarning
ValueError
Warning
ZeroDivisionError
4.异常处理:
python为每一种异常定制了一个类型,然后提供了一种特定的语法结构用来进行异常处理
1)基本语法:
try: 被检测的代码块 except 异常类型: try中一旦检测到异常,就执行这个位置的逻辑
2)异常类只能用来处理指定的异常情况,如果非指定异常则无法处理:
# 未捕获到异常,程序直接报错 s1 = 'hello' try: int(s1) except IndexError as e: print e
# 多分支 s1 = 'hello' try: int(s1) except IndexError as e: print(e) except KeyError as e: print(e) except ValueError as e: print(e)
3)万能异常 在python的异常中,有一个万能异常:Exception,他可以捕获任意异常,即:
d1 = 'dylan' try: int(d1) except Exception as e: print(e)
4)else,finally:
s1 = 'hello' try: int(s1) except IndexError as e: print(e) except KeyError as e: print(e) except ValueError as e: print(e) #except Exception as e: # print(e) else: print('try内代码块没有异常则执行我') finally: print('无论异常与否,都会执行该模块,通常是进行清理工作,如:关闭文件,关闭套接字')
5)主动触发异常:
try: raise TypeError('类型错误') except Exception as e: print(e)
二、进程
关于操作系统:
进程的概念起源于操作系统,是操作系统最核心的概念。
进程是对正在运行程序的一个抽象,操作系统的其他所有内容都是围绕进程的概念展开的。所以想要真正了解进程,必须事先了解操作系统
操作系统简介:http://www.cnblogs.com/linhaifeng/p/6295875.html
进程是操作系统提供的最古老也是最重要的抽象概念之一。即使可以利用的cpu只有一个(早期的计算机确实如此),也能保证支持(伪)并发的能力。将一个单独的cpu变成多个虚拟的cpu(多道技术:时间多路复用和空间多路复用+硬件上支持隔离),没有进程的抽象,现代计算机将不复存在。
1.几个概念的区分:
1)什么是进程:
进程:正在进行的一个过程或者说一个任务。而负责执行任务则是cpu
2)进程与程序的区别:
程序仅仅只是一堆代码而已,而进程指的是程序的运行过程。
需要强调的是:同一个程序执行两次,那也是两个进程。
3)并发与并行:
无论是并行还是并发,在用户看来都是'同时'运行的,不管是进程还是线程,都只是一个任务而已,真是干活的是cpu,cpu来做这些任务,而一个cpu同一时刻只能执行一个任务
并行:同时运行,只有具备多个cpu才能实现并行
并发:是伪并行,即看起来是同时运行。单个cpu+多道技术就可以实现并发,(并行也属于并发)

所有现代计算机经常会在同一时间做很多件事,一个用户的PC(无论是单cpu还是多cpu),都可以同时运行多个任务(一个任务可以理解为一个进程)。
启动一个进程来杀毒(360软件)
启动一个进程来看电影(暴风影音)
启动一个进程来聊天(腾讯QQ)
所有的这些进程都需被管理,于是一个支持多进程的多道程序系统是至关重要的
多道技术:内存中同时存入多道(多个)程序,cpu从一个进程快速切换到另外一个,使每个进程各自运行几十或几百毫秒,这样,虽然在某一个瞬间,一个cpu只能执行一个任务,但在1秒内,cpu却可以运行多个进程,这就给人产生了并行的错觉,即伪并发,以此来区分多处理器操作系统的真正硬件并行(多个cpu共享同一个物理内存)
4)同步与异步:
同步就是指一个进程在执行某个请求的时候,若该请求需要一段时间才能返回信息,那么这个进程将会一直等待下去,直到收到返回信息才继续执行下去;
异步是指进程不需要一直等下去,而是继续执行下面的操作,不管其他进程的状态。当有消息返回时系统会通知进程进行处理,这样可以提高执行的效率。
举个例子,打电话时就是同步通信,发短息时就是异步通信。
5)进程的创建:
但凡是硬件,都需要有操作系统去管理,只要有操作系统,就有进程的概念,就需要有创建进程的方式,一些操作系统只为一个应用程序设计,比如微波炉中的控制器,一旦启动微波炉,所有的进程都已经存在。
而对于通用系统(跑很多应用程序),需要有系统运行过程中创建或撤销进程的能力,主要分为4中形式创建新的进程:
- 系统初始化(查看进程linux中用ps命令,windows中用任务管理器,前台进程负责与用户交互,后台运行的进程与用户无关,运行在后台并且只在需要时才唤醒的进程,称为守护进程,如电子邮件、web页面、新闻、打印)
- 一个进程在运行过程中开启了子进程(如nginx开启多进程,os.fork,subprocess.Popen等)
- 用户的交互式请求,而创建一个新进程(如用户双击暴风影音)
- 一个批处理作业的初始化(只在大型机的批处理系统中应用)
无论哪一种,新进程的创建都是由一个已经存在的进程执行了一个用于创建进程的系统调用而创建的:
关于创建子进程(unix与windows):
相同的是:进程创建后,父进程和子进程有各自不同的地址空间(多道技术要求物理层面实现进程之间内存的隔离),任何一个进程的在其地址空间中的修改都不会影响到另外一个进程。.
不同的是:在UNIX中,子进程的初始地址空间是父进程的一个副本,提示:子进程和父进程是可以有只读的共享内存区的。但是对于windows系统来说,从一开始父进程与子进程的地址空间就是不同的。
6)进程的终止:
1. 正常退出(自愿,如用户点击交互式页面的叉号,或程序执行完毕调用发起系统调用正常退出,在linux中用exit,在windows中用ExitProcess)
2. 出错退出(自愿,python a.py中a.py不存在)
3. 严重错误(非自愿,执行非法指令,如引用不存在的内存,1/0等,可以捕捉异常,try...except...)
4. 被其他进程杀死(非自愿,如kill -9)
7)进程的层次结构:
无论UNIX还是windows,进程只有一个父进程,不同的是:
1. 在UNIX中所有的进程,都是以init进程为根,组成树形结构。父子进程共同组成一个进程组,这样,当从键盘发出一个信号时,该信号被送给当前与键盘相关的进程组中的所有成员。
2. 在windows中,没有进程层次的概念,所有的进程都是地位相同的,唯一类似于进程层次的暗示,是在创建进程时,父进程得到一个特别的令牌(称为句柄),该句柄可以用来控制子进程,但是父进程有权把该句柄传给其他子进程,这样就没有层次了。
8)进程的状态:
例如执行:tail -f access.log |grep '404'
执行程序tail,开启一个子进程,执行程序grep,开启另外一个子进程,两个进程之间基于管道'|'通讯,将tail的结果作为grep的输入。
进程grep在等待输入(即I/O)时的状态称为阻塞,此时grep命令都无法运行
其实在两种情况下会导致一个进程在逻辑上不能运行,
1. 进程挂起是自身原因,遇到I/O阻塞,便要让出CPU让其他进程去执行,这样保证CPU一直在工作
2. 与进程无关,是操作系统层面,可能会因为一个进程占用时间过多,或者优先级等原因,而调用其他的进程去使用CPU。
因而一个进程由三种状态

9)进程并发的实现:
进程并发的实现在于,硬件中断一个正在运行的进程,把此时进程运行的所有状态保存下来,为此,操作系统维护一张表格,即进程表(process table),每个进程占用一个进程表项(这些表项也称为进程控制块)
利用这种保存进程状态的方法(类似的有yield),在同一个进程(线程)中也可以同时进行多个任务,称之为微线程,即协程。

该表存放了进程状态的重要信息:程序计数器、堆栈指针、内存分配状况、所有打开文件的状态、帐号和调度信息,以及其他在进程由运行态转为就绪态或阻塞态时,必须保存的信息,从而保证该进程在再次启动时,就像从未被中断过一样。
三、python并发编程之多进程
1.multiprocessing模块:
python中的多线程无法利用多核优势,如果想要充分地使用多核CPU的资源(os.cpu_count()查看),在python中大部分情况需要使用多进程。Python提供了非常好用的多进程包multiprocessing。
multiprocessing模块用来开启子进程,并在子进程中执行我们定制的任务(比如函数),该模块与多线程模块threading的编程接口类似。
multiprocessing模块的功能众多:支持子进程、通信和共享数据、执行不同形式的同步,提供了Process、Queue、Pipe、Lock等组件。
需要再次强调的一点是:与线程不同,进程没有任何共享状态,进程修改的数据,改动仅限于该进程内。
2.Process类:
创建进程类:
Process([group [, target [, name [, args [, kwargs]]]]]) #由该类实例化得到的对象,表示一个子进程中的任务(尚未启动) #强调: #1. 需要使用关键字的方式来指定参数 #2. args指定的为传给target函数的位置参数,是一个元组形式,必须有逗号
参数介绍:
group参数未使用,值始终为None target表示调用对象,即子进程要执行的任务 args表示调用对象的位置参数元组,args=(1,2,'egon',) kwargs表示调用对象的字典,kwargs={'name':'egon','age':18} name为子进程的名称
方法介绍:
p.start():启动进程,并调用该子进程中的p.run()
p.run():进程启动时运行的方法,正是它去调用target指定的函数,我们自定义类的类中一定要实现该方法
p.terminate():强制终止进程p,不会进行任何清理操作,如果p创建了子进程,该子进程就成了僵尸进程,使用该方法需要特别小心这种情况。如果p还保存了一个锁那么也将不会被释放,进而导致死锁
p.is_alive():如果p仍然运行,返回True
p.join([timeout]):主线程等待p终止(强调:是主线程处于等的状态,而p是处于运行的状态)。timeout是可选的超时时间,需要强调的是,p.join只能join住start开启的进程,而不能join住run开启的进程
属性介绍:
p.daemon:默认值为False,如果设为True,代表p为后台运行的守护进程,当p的父进程终止时,p也随之终止,并且设定为True后,p不能创建自己的新进程,必须在p.start()之前设置
p.name:进程的名称
p.pid:进程的pid
p.exitcode:进程在运行时为None、如果为–N,表示被信号N结束(了解即可)
p.authkey:进程的身份验证键,默认是由os.urandom()随机生成的32字符的字符串。这个键的用途是为涉及网络连接的底层进程间通信提供安全性,这类连接只有在具有相同的身份验证键时才能成功(了解即可)
3.Process类的使用:
1)创建并开启子进程的两种方式:
注意:在windows中Process()必须放到# if __name__ == '__main__':下
''' Since Windows has no fork, the multiprocessing module starts a new Python process and imports the calling module. If Process() gets called upon import, then this sets off an infinite succession of new processes (or until your machine runs out of resources). This is the reason for hiding calls to Process() inside if __name__ == "__main__" since statements inside this if-statement will not get called upon import. ''' 由于Windows没有fork,多处理模块启动一个新的Python进程并导入调用模块。 如果在导入时调用Process(),那么这将启动无限继承的新进程(或直到机器耗尽资源)。 这是隐藏对Process()内部调用的原,使用if __name__ == “__main __”,这个if语句中的语句将不会在导入时被调用。
from multiprocessing import Process import time import random import os def work(name): print('%s is working!'%name) time.sleep(random.randint(1,2)) print('%s working finished!'%name) if __name__ == '__main__': p = Process(target=work,args=('user',)) p.start() print('======这是主进程======') 运行结果: ''' 由于创建进程只是发起一个系统调用,只要发起了,就会继续执行下面的print,并不会让下面print等待创建进程的结果,如果想让主进程等待子进程 创建执行完成,可加入p.join() ''' ======这是主进程====== user is working! user working finished!
from multiprocessing import Process import time import random import os class Myprocess(Process): def __init__(self,name): super().__init__() self.name = name def run(self): print('%s is working!'%self.name) time.sleep(random.randint(1,2)) print('%s working finished!'%self.name) if __name__ == '__main__': p = Myprocess('user') p.start() print('======这是主进程======') 运行结果: ======这是主进程====== user is working! user working finished!
ps:执行p.start()会执行Process类下的run方法,所以这里自定义了run方法为任务方法
from socket import * from multiprocessing import Process s = socket(AF_INET,SOCK_STREAM) s.setsockopt(SOL_SOCKET,SO_REUSEADDR,1) s.bind(('127.0.0.1',8081)) s.listen(5) def client_conn(conn,addr): print(addr) while True: try: msg = conn.recv(1024) if not msg:break conn.send(msg.upper()) except Exception as e: print(e) break if __name__ == '__main__': while True: conn, addr = s.accept() # 每来一个连接,就开一个进程(任务)去处理 p = Process(target=client_conn,args=(conn,addr)) p.start()
每来一个客户端,都在服务端开启一个进程,如果并发来一个万个客户端,要开启一万个进程吗,所以我们要限制并发的客户端数量。
解决方法:进程池
2)Process对象的其它方法或属性:
#进程对象的其他方法一:terminate,is_alive from multiprocessing import Process import time import random def work(name): print('%s start working!'%name) time.sleep(random.randint(1,5)) print('%s finish working!'%name) if __name__ == '__main__': w1 = Process(target=work,args=('elaine',)) w1.start() time.sleep(1) w1.terminate() #关闭进程,不会立即关闭,所以is_alive立刻查看的结果可能还是存活 print(w1.is_alive()) #结果为True print('这是父进程') time.sleep(1) print(w1.is_alive()) #结果为False
from multiprocessing import Process import time import random def work(name): print('%s start working!'%name) time.sleep(random.randint(1,5)) print('%s finish working!'%name) if __name__ == '__main__': w1 = Process(target=work,args=('elaine',)) w1.daemon = True w1.start() #一定要在w1.start()前设置,设置w1为守护进程,禁止w1创建子进程,并且父进程死,w1跟着一起死 print('这是父进程') 运行结果: 这是父进程
from multiprocessing import Process import time import random def work(name): print('%s start working!'%name) time.sleep(random.randint(1,5)) print('%s finish working!'%name) if __name__ == '__main__': w1 = Process(target=work,args=('elaine',)) w1.daemon = True #一定要在w1.start()前设置,设置w1为守护进程,禁止w1创建子进程,并且父进程死,w1跟着一起死 w1.start() w1.join() # 等待w1执行完毕再执行父进程,()可加超时时间 print('这是父进程') 运行结果: elaine start working! elaine finish working! 这是父进程
关于join的一点解释:
如果加入join,多个进程是否就变成串行了?答案是否定的
from multiprocessing import Process import time import random start_time = time.time() def work(name): print('%s start working!'%name) time.sleep(random.randint(1,3)) print('%s finish working!'%name) if __name__ == '__main__': w1 = Process(target=work,args=('user1',)) w2 = Process(target=work,args=('user2',)) w3 = Process(target=work, args=('user3',)) w4 = Process(target=work, args=('user4',)) w1.start() w2.start() w3.start() w4.start() w1.join() w2.join() w3.join() w4.join() print('这是父进程') stop_time = time.time() print('程序运行了:',stop_time-start_time) 运行结果: user2 start working! user1 start working! user4 start working! user3 start working! user1 finish working! user2 finish working! user4 finish working! user3 finish working! 这是父进程 程序运行了: 3.564203977584839
''' 既然join是等待进程结束,那么我像下面这样写,进程不就又变成串行的了吗? 当然不是了,必须明确:w.join()是让谁等? 很明显w.join()是让主线程等待p的结束,卡住的是主线程而绝非进程p, 详细解析如下: 进程只要start就会在开始运行了,所以w1-w4.start()时,系统中已经有四个并发的进程了 而我们w1.join()是在等p1结束,没错p1只要不结束主线程就会一直卡在原地,这也是问题的关键 join是让主线程等,而w1-w4仍然是并发执行的,w1.join的时候,其余w2,w3,w4仍然在运行,等 w1.join结束,可能w2,w3,w4早已经结束了,这样w2.join,w3.join.w4.join直接通过检测,无需等待 所以4个join花费的总时间仍然是耗费时间最长的那个进程运行的时间 '''
from multiprocessing import Process import time import random start_time = time.time() def work(name): print('%s start working!'%name) time.sleep(random.randint(1,3)) print('%s finish working!'%name) if __name__ == '__main__': w1 = Process(target=work,args=('user1',)) w2 = Process(target=work,args=('user2',)) w3 = Process(target=work, args=('user3',)) w4 = Process(target=work, args=('user4',)) p_list = [w1,w2,w3,w4] for i in p_list: i.start() for i in p_list: i.join() print('这是父进程') stop_time = time.time() print('程序运行了:',stop_time-start_time)
from multiprocessing import Process import time import random start_time = time.time() def work(name): print('%s start working!'%name) time.sleep(random.randint(1,3)) print('%s finish working!'%name) if __name__ == '__main__': p_list = [] for i in range(4): p = Process(target=work,args=('user%s'%i,)) p.start() p_list.append(p) for i in p_list: i.join() print('这是父进程') stop_time = time.time() print('程序运行了:',stop_time-start_time)
#进程对象的其他属性:name,pid from multiprocessing import Process import time import random def work(name): print('%s start working!'%name) time.sleep(random.randint(1,3)) print('%s finish working!'%name) if __name__ == '__main__': p_list = [] for i in range(4): p = Process(target=work,args=('user%s'%i,)) p.start() print('p.pid:%s p.name:%s'%(p.pid,p.name)) p_list.append(p) print('这是父进程') 运行结果: p.pid:5232 p.name:Process-1 p.pid:8376 p.name:Process-2 p.pid:9160 p.name:Process-3 p.pid:9180 p.name:Process-4 这是父进程 user1 start working! user0 start working! user3 start working! user2 start working! user1 finish working! user0 finish working! user3 finish working! user2 finish working!
4.进程间通信(IPC):队列
进程之间数据不共享,但是共享同一套文件系统,所以访问同一个文件,或同一个打印终端,是没有问题的,共享同一打印终端,发现会有多行内容打印到一行的现象(多个进程共享并抢占同一个打印终端)
#多进程共享一个打印终端(用python2测试看两个进程同时往一个终端打印,出现打印到一行的错误) from multiprocessing import Process import time class Logger(Process): def __init__(self): super(Logger,self).__init__() def run(self): print(self.name) for i in range(1000000): l=Logger() l.start()
进程彼此之间互相隔离,要实现进程间通信,即IPC,multiprocessing模块支持两种形式:队列和管道,这两种方式都是使用消息传递的
1. 创建队列的类:Queue类
Queue([maxsize]):创建共享的进程队列,Queue是多进程安全的队列,可以使用Queue实现多进程之间的数据传递。
maxsize是队列中允许最大项数,省略则无大小限制。
方法:
q.put方法用以插入数据到队列中,put方法还有两个可选参数:blocked和timeout。如果blocked为True(默认值),并且timeout为正值,该方法会阻塞timeout指定的时间,直到该队列有剩余的空间。如果超时,会抛出Queue.Full异常。如果blocked为False,但该Queue已满,会立即抛出Queue.Full异常。
q.get方法可以从队列读取并且删除一个元素。同样,get方法有两个可选参数:blocked和timeout。如果blocked为True(默认值),并且timeout为正值,那么在等待时间内没有取到任何元素,会抛出Queue.Empty异常。如果blocked为False,有两种情况存在,如果Queue有一个值可用,则立即返回该值,否则,如果队列为空,则立即抛出Queue.Empty异常.
q.get_nowait():同q.get(False)
q.put_nowait():同q.put(False)
q.empty():调用此方法时q为空则返回True,该结果不可靠,比如在返回True的过程中,如果队列中又加入了项目。
q.full():调用此方法时q已满则返回True,该结果不可靠,比如在返回True的过程中,如果队列中的项目被取走。
q.qsize():返回队列中目前项目的正确数量,结果也不可靠,理由同q.empty()和q.full()一样
from multiprocessing import Queue q = Queue(3) q.put('ele') q.put('ele') q.put('ele') print(q.full()) print(q.qsize()) q.get() q.get() q.get() print(q.empty()) print(q.qsize()) 运行结果: True 3 True 0
2.生产者消费者模型:
在并发编程中使用生产者和消费者模式能够解决绝大多数并发问题。该模式通过平衡生产线程和消费线程的工作能力来提高程序的整体处理数据的速度。
为什么要使用生产者和消费者模式
在线程世界里,生产者就是生产数据的线程,消费者就是消费数据的线程。在多线程开发当中,如果生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。同样的道理,如果消费者的处理能力大于生产者,那么消费者就必须等待生产者。为了解决这个问题于是引入了生产者和消费者模式。
什么是生产者消费者模式
生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力。
基于队列实现生产者消费者模型:
from multiprocessing import Process,Queue import time import random def consumer(q,name): while True: time.sleep(random.randint(1,2)) get_obj = q.get() if not get_obj: break # 消费者接到信号,终止循环 print('\033[41m%s 消费了一个 %s\033[0m'%(name,get_obj)) def producer(q): for i in range(10): # 生产10个商品 time.sleep(random.randint(1,2)) q.put('商品%s'%i) print('\033[42m生产者生产了 商品%s\033[0m'%i) q.put(None) # 通过queue发送一个信号给消费者 if __name__ == '__main__': q = Queue() c = Process(target=consumer,args=(q,'消费者')) c.start() p = Process(target=producer,args=(q,)) p.start() print('我是主进程')
我是主进程
生产者生产了 商品0
消费者 消费了一个 商品0
生产者生产了 商品1
消费者 消费了一个 商品1
生产者生产了 商品2
消费者 消费了一个 商品2
生产者生产了 商品3
生产者生产了 商品4
消费者 消费了一个 商品3
消费者 消费了一个 商品4
生产者生产了 商品5
消费者 消费了一个 商品5
生产者生产了 商品6
生产者生产了 商品7
消费者 消费了一个 商品6
生产者生产了 商品8
消费者 消费了一个 商品7
生产者生产了 商品9
消费者 消费了一个 商品8
消费者 消费了一个 商品9
3.创建队列的另外一个类:
JoinableQueue([maxsize]):这就像是一个Queue对象,但队列允许项目的使用者通知生成者项目已经被成功处理。通知进程是使用共享的信号和条件变量来实现的。
参数介绍:
maxsize是队列中允许最大项数,省略则无大小限制。
方法介绍:
JoinableQueue的实例p除了与Queue对象相同的方法之外还具有:
q.task_done():使用者使用此方法发出信号,表示q.get()的返回项目已经被处理。如果调用此方法的次数大于从队列中删除项目的数量,将引发ValueError异常
#JoinableQueue
from multiprocessing import Process,JoinableQueue import time import random def consumer(q,name): while True: # time.sleep(random.randint(1,2)) get_obj = q.get() q.task_done() print('\033[41m%s 消费了一个 %s\033[0m'%(name,get_obj)) def producer(q): for i in range(10): # 生产10个商品 # time.sleep(random.randint(1,2)) q.put('商品%s'%i) print('\033[42m生产者生产了 商品%s\033[0m'%i) q.join() # 等待所有被put的数据task_done if __name__ == '__main__': q = JoinableQueue() c = Process(target=consumer,args=(q,'消费者')) c.daemon = True # 将c(消费者进程)设置为守护进程,主进程结束,c结束 c.start() p = Process(target=producer,args=(q,)) p.start() p.join() # 主进程要等待p(生产者进程)执行完毕才能执行 print('我是主进程') ''' 主进程会等待p(生产者进程)执行完毕才能执行,p要等待c(消费者进程)将队列q 里的数据取完并q.task_done()后才结束,c一旦取完数据,q.join就不阻塞了,
p.join也就不在阻塞,然后执行主进程,因为c.daemon=True 主进程结束也会
回收掉c,c之前取完数据也没有存在的必要了 '''
生产者生产了 商品0
生产者生产了 商品1
消费者 消费了一个 商品0
生产者生产了 商品2
消费者 消费了一个 商品1
生产者生产了 商品3
消费者 消费了一个 商品2
生产者生产了 商品4
消费者 消费了一个 商品3
生产者生产了 商品5
消费者 消费了一个 商品4
生产者生产了 商品6
消费者 消费了一个 商品5
生产者生产了 商品7
消费者 消费了一个 商品6
生产者生产了 商品8
生产者生产了 商品9
消费者 消费了一个 商品7
消费者 消费了一个 商品8
消费者 消费了一个 商品9
我是主进程
多个生产者和多个消费者(JoinableQueue):
from multiprocessing import Process,JoinableQueue import time import random def consumer(q,name): while True: # time.sleep(random.randint(1,2)) get_obj = q.get() q.task_done() print('\033[41m%s 消费了一个 %s\033[0m'%(name,get_obj)) def producer(q,name): for i in range(20): # 生产20个商品 time.sleep(0.1) # 模拟生产者的生产一个商品的时间 q.put('商品%s'%i) print('\033[42m生产者%s生产了 商品%s\033[0m'%(name,i)) q.join() # 当前子进程等待所有被put的数据task_done print('============生产者%s的商品取完了============='%name) if __name__ == '__main__': q = JoinableQueue() for i in range(10): c = Process(target=consumer,args=(q,'消费者%s'%i)) c.daemon = True # 将c(消费者进程)设置为守护进程,主进程结束,c结束 c.start() p_list = [] for i in range(5): # 开启了多个生产者进程,每个进程都会“并行”的开始生产“商品” p = Process(target=producer,args=(q,'Producer%s'%i)) p.start() p_list.append(p) # q.join() # 这里queue.join就相当于主进程等待列队里的元素被取完才往下执行 # print("列队里的商品取完了==============>") for p in p_list: p.join() # 主进程要等待p(生产者进程)执行完毕才能执行 # q.join() # 这里queue.join就相当于主进程等待列队里的元素被取完才往下执行 # print("列队里的商品取完了==============>") print('我是主进程')
C:\Python34\python3.4.exe D:/python/python3/py17day09/test_code/多生产者,多消费者.py 生产者Producer0生产了 商品0 消费者0 消费了一个 商品0 生产者Producer1生产了 商品0 生产者Producer0生产了 商品1 消费者1 消费了一个 商品1 消费者3 消费了一个 商品0 生产者Producer0生产了 商品2 消费者2 消费了一个 商品2 生产者Producer1生产了 商品1 消费者5 消费了一个 商品1 生产者Producer0生产了 商品3 消费者4 消费了一个 商品3 生产者Producer1生产了 商品2 消费者7 消费了一个 商品2 生产者Producer1生产了 商品3 消费者8 消费了一个 商品3 生产者Producer0生产了 商品4 消费者9 消费了一个 商品4 生产者Producer1生产了 商品4 消费者6 消费了一个 商品4 生产者Producer0生产了 商品5 消费者0 消费了一个 商品5 生产者Producer1生产了 商品5 消费者1 消费了一个 商品5 生产者Producer0生产了 商品6 生产者Producer1生产了 商品6 消费者3 消费了一个 商品6 消费者2 消费了一个 商品6 生产者Producer0生产了 商品7 消费者5 消费了一个 商品7 生产者Producer1生产了 商品7 消费者4 消费了一个 商品7 生产者Producer0生产了 商品8 消费者7 消费了一个 商品8 生产者Producer1生产了 商品8 消费者8 消费了一个 商品8 生产者Producer0生产了 商品9 生产者Producer1生产了 商品9 消费者9 消费了一个 商品9 消费者6 消费了一个 商品9 生产者Producer4生产了 商品0 生产者Producer0生产了 商品10 消费者0 消费了一个 商品0 消费者1 消费了一个 商品10 生产者Producer1生产了 商品10 消费者3 消费了一个 商品10 生产者Producer2生产了 商品0 消费者2 消费了一个 商品0 生产者Producer4生产了 商品1 生产者Producer1生产了 商品11 生产者Producer0生产了 商品11 消费者5 消费了一个 商品1 消费者4 消费了一个 商品11 消费者7 消费了一个 商品11 生产者Producer2生产了 商品1 消费者8 消费了一个 商品1 生产者Producer3生产了 商品0 消费者9 消费了一个 商品0 生产者Producer4生产了 商品2 生产者Producer0生产了 商品12 生产者Producer1生产了 商品12 消费者6 消费了一个 商品12 消费者0 消费了一个 商品2 消费者1 消费了一个 商品12 生产者Producer2生产了 商品2 消费者3 消费了一个 商品2 生产者Producer3生产了 商品1 消费者2 消费了一个 商品1 生产者Producer4生产了 商品3 生产者Producer1生产了 商品13 生产者Producer0生产了 商品13 消费者5 消费了一个 商品3 消费者4 消费了一个 商品13 消费者7 消费了一个 商品13 生产者Producer2生产了 商品3 消费者8 消费了一个 商品3 生产者Producer3生产了 商品2 消费者9 消费了一个 商品2 生产者Producer4生产了 商品4 生产者Producer1生产了 商品14 生产者Producer0生产了 商品14 消费者6 消费了一个 商品4 消费者0 消费了一个 商品14 消费者1 消费了一个 商品14 生产者Producer2生产了 商品4 生产者Producer3生产了 商品3 消费者3 消费了一个 商品3 消费者2 消费了一个 商品4 生产者Producer4生产了 商品5 生产者Producer1生产了 商品15 消费者5 消费了一个 商品15 生产者Producer0生产了 商品15 消费者4 消费了一个 商品5 消费者7 消费了一个 商品15 生产者Producer3生产了 商品4 生产者Producer2生产了 商品5 消费者8 消费了一个 商品4 消费者9 消费了一个 商品5 生产者Producer1生产了 商品16 生产者Producer4生产了 商品6 消费者6 消费了一个 商品16 生产者Producer0生产了 商品16 消费者0 消费了一个 商品6 消费者1 消费了一个 商品16 消费者3 消费了一个 商品5 生产者Producer3生产了 商品5 生产者Producer2生产了 商品6 消费者2 消费了一个 商品6 生产者Producer1生产了 商品17 消费者5 消费了一个 商品17 生产者Producer4生产了 商品7 生产者Producer0生产了 商品17 消费者4 消费了一个 商品7 消费者7 消费了一个 商品17 生产者Producer3生产了 商品6 消费者8 消费了一个 商品6 生产者Producer2生产了 商品7 消费者9 消费了一个 商品7 生产者Producer1生产了 商品18 消费者6 消费了一个 商品18 生产者Producer4生产了 商品8 生产者Producer0生产了 商品18 消费者0 消费了一个 商品8 消费者1 消费了一个 商品18 生产者Producer3生产了 商品7 消费者3 消费了一个 商品7 生产者Producer2生产了 商品8 消费者2 消费了一个 商品8 生产者Producer1生产了 商品19 消费者5 消费了一个 商品19 ============生产者Producer1的商品取完了============= 生产者Producer4生产了 商品9 消费者4 消费了一个 商品9 生产者Producer0生产了 商品19 消费者7 消费了一个 商品19 ============生产者Producer0的商品取完了============= 生产者Producer3生产了 商品8 消费者8 消费了一个 商品8 生产者Producer2生产了 商品9 消费者9 消费了一个 商品9 生产者Producer4生产了 商品10 消费者6 消费了一个 商品10 生产者Producer3生产了 商品9 消费者0 消费了一个 商品9 生产者Producer2生产了 商品10 消费者1 消费了一个 商品10 生产者Producer4生产了 商品11 消费者3 消费了一个 商品11 生产者Producer3生产了 商品10 生产者Producer2生产了 商品11 消费者2 消费了一个 商品11 消费者5 消费了一个 商品10 生产者Producer4生产了 商品12 消费者4 消费了一个 商品12 生产者Producer3生产了 商品11 生产者Producer2生产了 商品12 消费者7 消费了一个 商品11 消费者8 消费了一个 商品12 生产者Producer4生产了 商品13 消费者9 消费了一个 商品13 生产者Producer2生产了 商品13 生产者Producer3生产了 商品12 消费者6 消费了一个 商品13 消费者0 消费了一个 商品12 生产者Producer4生产了 商品14 消费者1 消费了一个 商品14 生产者Producer2生产了 商品14 生产者Producer3生产了 商品13 消费者3 消费了一个 商品14 消费者2 消费了一个 商品13 生产者Producer4生产了 商品15 消费者5 消费了一个 商品15 生产者Producer2生产了 商品15 生产者Producer3生产了 商品14 消费者4 消费了一个 商品15 消费者7 消费了一个 商品14 生产者Producer4生产了 商品16 消费者8 消费了一个 商品16 生产者Producer3生产了 商品15 生产者Producer2生产了 商品16 消费者9 消费了一个 商品15 消费者6 消费了一个 商品16 生产者Producer4生产了 商品17 消费者0 消费了一个 商品17 生产者Producer3生产了 商品16 生产者Producer2生产了 商品17 消费者1 消费了一个 商品16 消费者3 消费了一个 商品17 生产者Producer4生产了 商品18 消费者2 消费了一个 商品18 生产者Producer2生产了 商品18 生产者Producer3生产了 商品17 消费者5 消费了一个 商品17 消费者4 消费了一个 商品18 生产者Producer4生产了 商品19 消费者7 消费了一个 商品19 ============生产者Producer4的商品取完了============= 生产者Producer2生产了 商品19 生产者Producer3生产了 商品18 消费者8 消费了一个 商品18 消费者9 消费了一个 商品19 ============生产者Producer2的商品取完了============= 生产者Producer3生产了 商品19 消费者6 消费了一个 商品19 ============生产者Producer3的商品取完了============= 我是主进程
4.共享数据方式实现进程之间通讯:
from multiprocessing import Manager,Process import os def work(l,d): l.append(os.getpid()) d[os.getpid()] = os.getpid() if __name__ == '__main__': m = Manager() l = m.list([]) d = m.dict({}) p_list = [] for i in range(5): p = Process(target=work,args=(l,d)) p_list.append(p) p.start() for p in p_list: p.join() #必须有join不然会报错
print(l) print(d)
[926404, 927968, 925964, 928252, 928132]
{927968: 927968, 925964: 925964, 928132: 928132, 926404: 926404, 928252: 928252}
5.进程同步(进程锁):
模拟一个抢票程序:多个进程同时更改一个文件
#文件a.txt的内容为:{"count":1} #注意一定要用双引号,不然json无法识别 from multiprocessing import Process,Lock import json import time import random def work(dbfile,name): with open(dbfile,'r',encoding='utf-8') as f : dic = json.loads(f.read()) if dic['count'] > 0 : dic['count']-=1 time.sleep(random.randint(1,3)) # 模拟网络延迟 json.dump(dic,open(dbfile,'w',encoding='utf-8')) print('\033[42m%s抢票成功!\033[0m'%name) else: print('\033[41m%s抢票失败!\033[0m'%name) if __name__ == '__main__': p_list = [] for i in range(50): p = Process(target=work,args=('a.txt','用户%s')) p_list.append(p) p.start() for p in p_list: p.join() 运行结果: 用户0抢票成功! 用户5抢票失败! 用户3抢票成功! 用户4抢票失败! 用户6抢票失败! 用户7抢票失败! 用户8抢票失败! 用户2抢票成功! 用户1抢票成功! 用户10抢票失败! 用户9抢票失败! .. .. ..
修改文件的操作加入进程锁,拿到锁的进程,才能执行:
#文件a.txt的内容为:{"count":1} #注意一定要用双引号,不然json无法识别 from multiprocessing import Process,Lock import json import time import random def work(dbfile,name,lock): # with lock: # 使用with上下文管理可以自动释放锁 lock.acquire() with open(dbfile,'r',encoding='utf-8') as f : dic = json.loads(f.read()) if dic['count'] > 0 : dic['count']-=1 time.sleep(random.randint(1,3)) # 模拟网络延迟 json.dump(dic,open(dbfile,'w',encoding='utf-8')) print('\033[42m%s抢票成功!\033[0m'%name) else: print('\033[41m%s抢票失败!\033[0m'%name) lock.release() if __name__ == '__main__': lock = Lock() p_list = [] for i in range(50): p = Process(target=work,args=('a.txt','用户%s'%i,lock)) p_list.append(p) p.start() for p in p_list: p.join()
6.进程池:
开多进程的目的是为了并发,如果有多核,通常有几个核就开几个进程,进程开启过多,效率反而会下降(开启进程是需要占用系统资源的,而且开启多余核数目的进程也无法做到并行),但很明显需要并发执行的任务要远大于核数,这时我们就可以通过维护一个进程池来控制进程数目,比如httpd的进程模式,规定最小进程数和最大进程数...
当被操作对象数目不大时,可以直接利用multiprocessing中的Process动态成生多个进程,十几个还好,但如果是上百个,上千个目标,手动的去限制进程数量却又太过繁琐,此时可以发挥进程池的功效。
而且对于远程过程调用的高级应用程序而言,应该使用进程池,Pool可以提供指定数量的进程,供用户调用,当有新的请求提交到pool中时,如果池还没有满,那么就会创建一个新的进程用来执行该请求;但如果池中的进程数已经达到规定最大值,那么该请求就会等待,直到池中有进程结束,就重用进程池中的进程。
在利用Python进行系统管理的时候,特别是同时操作多个文件目录,或者远程控制多台主机,并行操作可以节约大量的时间
Pool类:
Pool([numprocess [,initializer [, initargs]]]):创建进程池
参数:
numprocess:要创建的进程数,如果省略,将默认使用cpu_count()的值
initializer:是每个工作进程启动时要执行的可调用对象,默认为None
initargs:是要传给initializer的参数组
方法:
p.apply(func [, args [, kwargs]]):在一个池工作进程中执行func(*args,**kwargs),然后返回结果。需要强调的是:此操作并不会在所有池工作进程中并执行func函数。如果要通过不同参数并发地执行func函数,必须从不同线程调用p.apply()函数或者使用p.apply_async() p.apply_async(func [, args [, kwargs]]):在一个池工作进程中执行func(*args,**kwargs),然后返回结果。此方法的结果是AsyncResult类的实例,callback是可调用对象,接收输入参数。当func的结果变为可用时,将理解传递给callback。callback禁止执行任何阻塞操作,否则将接收其他异步操作中的结果。 p.close():关闭进程池,防止进一步操作。如果所有操作持续挂起,它们将在工作进程终止前完成 p.terminate():立即终止所有工作进程,同时不执行任何清理或结束任何挂起工作。如果p被垃圾回收,将自动调用此函数 P.jion():等待所有工作进程退出。此方法只能在close()或teminate()之后调用
使用进程池解决socket_server端限制客户端并发数量:
#Pool内的进程数默认是cpu核数,假设为4(查看方法os.cpu_count()) #开启6个客户端,会发现2个客户端处于等待状态 #在每个进程内查看pid,会发现pid使用为4个,即多个客户端公用4个进程 from socket import * from multiprocessing import Pool import os s = socket(AF_INET,SOCK_STREAM) s.setsockopt(SOL_SOCKET,SO_REUSEADDR,1) s.bind(('127.0.0.1',8089)) s.listen(5) def talk(conn,addr): # print(addr) print('pid:%s'%os.getpid()) while True: try: msg = conn.recv(1024) if not msg:break conn.send(msg.upper()) except Exception as e: print(e) break if __name__ == '__main__': p = Pool() while True: conn, addr = s.accept() p.apply_async(talk,args=(conn,addr)) 运行客户端结果: pid:949264 pid:949288 pid:948516 pid:949312 [WinError 10054] 远程主机强迫关闭了一个现有的连接。 pid:949264 [WinError 10054] 远程主机强迫关闭了一个现有的连接。 pid:949288
from socket import * c = socket(AF_INET,SOCK_STREAM) c.connect(('127.0.0.1',8089)) while True: msg = input('>').strip() if not msg :continue c.send(msg.encode('utf-8')) msg1 = c.recv(1024).decode('utf-8') print(msg1)
回调函数:
如果进程池中的进程(任务)有返回值改如何获取?
如下:
from multiprocessing import Pool import time,random def work(n): time.sleep(random.randint(1,3)) return n**2 if __name__ == '__main__': p = Pool() res_list = [] for i in range(6): res = p.apply_async(work,args=(i,)) # 得到进程池里的进程对象 res_list.append(res) # print(res_list) for p in res_list: print(p.get()) # 得到进程执行后的结果并打印
0 1 4 9 16 25 ''' 为什么会按顺序打印? 进程对象是按照顺序依次放入列表res_list里的,再次从列表里取 得进程对象也是按顺序取,所以p.get()的结果就是按顺序输出, 进程早已执行完毕,只是取执行结果是按顺序 '''
有些需求会将进程执行的结果交给另外的任务去处理,这里就用到了回调函数
比如爬虫:
我们在从网页爬取到结果时,往往要将其交给另外的方法提取想要的内容
需要回调函数的场景:进程池中任何一个任务一旦处理完了,就立即告知主进程:我好了,你可以处理我的结果了。主进程则调用一个函数去处理该结果,该函数即回调函数;
我们可以把耗时间(阻塞)的任务放到进程池中,然后指定回调函数(主进程负责执行),这样主进程在执行回调函数时就省去了I/O的过程,直接拿到的是任务的结果。
from multiprocessing import Pool import time,random,os url_dict = {'http://maoyan.com/board/7':'这是爬取内容7', 'http://maoyan.com/board/8': '这是爬取内容8', 'http://maoyan.com/board/9': '这是爬取内容9', 'http://maoyan.com/board/10': '这是爬取内容10', 'http://maoyan.com/board/11': '这是爬取内容7', 'http://maoyan.com/board/12': '这是爬取内容8', 'http://maoyan.com/board/13': '这是爬取内容9', 'http://maoyan.com/board/14': '这是爬取内容10', } def geturl(url,page_content): print('(进程%s)正在爬取:%s'%(os.getpid(),url)) time.sleep(random.randint(1,3)) # 模拟获取网页延迟 return url,page_content def url_handler(page_res): url, page_content = page_res print('<进程%s>正在解析网页内容:%s'%(os.getpid(),page_content)) re_res = page_content.replace('爬取','处理') # 模拟正则处理 time.sleep(1) # 模拟处理延迟 print('%s 回调函数结果为:%s'%(os.getpid(),re_res)) if __name__ == '__main__': p = Pool() p_list = [] for url,method in url_dict.items(): # 注意:会专门开启一个进程来处理callback指定的任务(单独的一个进程,而且只有一个) res = p.apply_async(geturl,args=(url,method),callback=url_handler) p_list.append(res) # 异步提交完任务后,主进程先关闭p(必须先关闭),然后再用p.join()等待所有任务结束(包括callback) p.close() p.join() print('{主进程 %s}' % os.getpid()) # 收集结果,发现收集的是geturl的结果 # 所以需要注意了: # 1. 当我们想要在将geturl的结果传给url_handler处理,那么就不需要p.get(),通过指定callback,就可以将p.get()的结果传给callback执行的任务 # 2. 当我们想要在主进程中处理geturl的结果,那就需要使用p.get()获取后,再进一步处理 # 所以本例中,下面这两步是多余的 for p in p_list: print(p.get())
#运行结果:
有些geturl任务还没有进行完毕url_handler(callback)就已经开始处理结果,可见进程池会将先执行完的任务结果
返回给主进程进行处理,所以就如同上面所说,我们把耗时阻塞的任务放到进程池中,然后指定callback
(主进程执行)去处理这个结果
(进程208912)正在爬取:http://maoyan.com/board/13 (进程208436)正在爬取:http://maoyan.com/board/14 (进程208540)正在爬取:http://maoyan.com/board/9 (进程208904)正在爬取:http://maoyan.com/board/8 (进程208436)正在爬取:http://maoyan.com/board/12 <进程208276>正在解析网页内容:这是爬取内容10 208276 回调函数结果为:这是处理内容10 <进程208276>正在解析网页内容:这是爬取内容8 (进程208904)正在爬取:http://maoyan.com/board/7 (进程208912)正在爬取:http://maoyan.com/board/11 (进程208436)正在爬取:http://maoyan.com/board/10 208276 回调函数结果为:这是处理内容8 <进程208276>正在解析网页内容:这是爬取内容9 208276 回调函数结果为:这是处理内容9 <进程208276>正在解析网页内容:这是爬取内容8 208276 回调函数结果为:这是处理内容8 <进程208276>正在解析网页内容:这是爬取内容9 208276 回调函数结果为:这是处理内容9 <进程208276>正在解析网页内容:这是爬取内容7 208276 回调函数结果为:这是处理内容7 <进程208276>正在解析网页内容:这是爬取内容10 208276 回调函数结果为:这是处理内容10 <进程208276>正在解析网页内容:这是爬取内容7 208276 回调函数结果为:这是处理内容7 {主进程 208276} ('http://maoyan.com/board/13', '这是爬取内容9') ('http://maoyan.com/board/14', '这是爬取内容10') ('http://maoyan.com/board/9', '这是爬取内容9') ('http://maoyan.com/board/8', '这是爬取内容8') ('http://maoyan.com/board/12', '这是爬取内容8') ('http://maoyan.com/board/7', '这是爬取内容7') ('http://maoyan.com/board/11', '这是爬取内容7') ('http://maoyan.com/board/10', '这是爬取内容10')
from multiprocessing import Pool import time,random import requests import re def get_page(url,pattern): response=requests.get(url) if response.status_code == 200: return (response.text,pattern) def parse_page(info): page_content,pattern=info res=re.findall(pattern,page_content) for item in res: dic={ 'index':item[0], 'title':item[1], 'actor':item[2].strip()[3:], 'time':item[3][5:], 'score':item[4]+item[5] } print(dic) if __name__ == '__main__': pattern1=re.compile(r'<dd>.*?board-index.*?>(\d+)<.*?title="(.*?)".*?star.*?>(.*?)<.*?releasetime.*?>(.*?)<.*?integer.*?>(.*?)<.*?fraction.*?>(.*?)<',re.S) url_dic={ 'http://maoyan.com/board/7':pattern1, } p=Pool() res_l=[] for url,pattern in url_dic.items(): res=p.apply_async(get_page,args=(url,pattern),callback=parse_page) res_l.append(res) for i in res_l: i.get() # res=requests.get('http://maoyan.com/board/7') # print(re.findall(pattern,res.text))
四、paramiko模块
1.parmiko模块:
paramiko是一个用于做远程控制的模块,使用该模块可以对远程服务器进行命令或文件操作,值得一说的是,fabric和ansible内部的远程管理就是使用的paramiko来现实。
2.安装:
pycrypto,由于 paramiko 模块内部依赖pycrypto,所以先下载安装pycrypto
pip3 install pycrypto
pip3 install paramiko
3.使用方法:
#执行命令-用户名,密码 import paramiko ssh = paramiko.SSHClient() ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy()) ssh.connect('192.168.52.128', 22, 'root', '*****') stdin, stdout, stderr = ssh.exec_command('df -Th') print(stdout.read().decode('utf-8')) ssh.close()
import paramiko private_key_path = '/home/auto/.ssh/id_rsa' key = paramiko.RSAKey.from_private_key_file(private_key_path) ssh = paramiko.SSHClient() ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy()) ssh.connect('主机名 ', 端口, '用户名', key) stdin, stdout, stderr = ssh.exec_command('df') print stdout.read() ssh.close()
#上传下载文件-用户名,密码 import paramiko t = paramiko.Transport(('192.168.52.128',22)) t.connect(username='root',password='wqq19870422') sftp = paramiko.SFTPClient.from_transport(t) sftp.put('a.txt','/tmp/a.txt') t.close() import paramiko t = paramiko.Transport(('192.168.52.128',22)) t.connect(username='root',password='wqq19870422') sftp = paramiko.SFTPClient.from_transport(t) sftp.get('/tmp/b.txt','b.txt') t.close()
import paramiko pravie_key_path = '/home/auto/.ssh/id_rsa' key = paramiko.RSAKey.from_private_key_file(pravie_key_path) t = paramiko.Transport(('182.92.219.86',22)) t.connect(username='wupeiqi',pkey=key) sftp = paramiko.SFTPClient.from_transport(t) sftp.put('/tmp/test3.py','/tmp/test3.py') t.close() import paramiko pravie_key_path = '/home/auto/.ssh/id_rsa' key = paramiko.RSAKey.from_private_key_file(pravie_key_path) t = paramiko.Transport(('182.92.219.86',22)) t.connect(username='wupeiqi',pkey=key) sftp = paramiko.SFTPClient.from_transport(t) sftp.get('/tmp/test3.py','/tmp/test4.py') t.close()
q.join不阻塞,p.join
也就不在阻塞,然后执行主进程,

浙公网安备 33010602011771号