Python多线程爬虫简单示例
python是支持多线程的,主要是通过thread和threading这两个模块来实现的。thread模块是比较底层的模块,threading模块是对thread做了一些包装的,可以更加方便的使用。
虽然python的多线程受GIL限制,并不是真正的多线程,但是对于I/O密集型计算还是能明显提高效率,比如说爬虫。
下面用一个实例来验证多线程的效率。代码只涉及页面获取,并没有解析出来。
1 # -*-coding:utf-8 -*- 2 import urllib2, time 3 import threading 4 5 6 class MyThread(threading.Thread): 7 def __init__(self, func, args): 8 threading.Thread.__init__(self) 9 self.args = args 10 self.func = func 11 12 def run(self): 13 apply(self.func, self.args) 14 15 16 def open_url(url): 17 request = urllib2.Request(url) 18 html = urllib2.urlopen(request).read() 19 print len(html) 20 return html 21 22 if __name__ == '__main__': 23 # 构造url列表 24 urlList = [] 25 for p in range(1, 10): 26 urlList.append('http://s.wanfangdata.com.cn/Paper.aspx?q=%E5%8C%BB%E5%AD%A6&p=' + str(p)) 27 28 # 一般方式 29 n_start = time.time() 30 for each in urlList: 31 open_url(each) 32 n_end = time.time() 33 print 'the normal way take %s s' % (n_end-n_start) 34 35 # 多线程 36 t_start = time.time() 37 threadList = [MyThread(open_url, (url,)) for url in urlList] 38 for t in threadList: 39 t.setDaemon(True) 40 t.start() 41 for i in threadList: 42 i.join() 43 t_end = time.time() 44 print 'the thread way take %s s' % (t_end-t_start)
分别用两种方式获取10个访问速度比较慢的网页,一般方式耗时50s,多线程耗时10s。
多线程代码解读:
1 # 创建线程类,继承Thread类 2 class MyThread(threading.Thread): 3 def __init__(self, func, args): 4 threading.Thread.__init__(self) # 调用父类的构造函数 5 self.args = args 6 self.func = func 7 8 def run(self): # 线程活动方法 9 apply(self.func, self.args) 10 11 12 threadList = [MyThread(open_url, (url,)) for url in urlList] 13 # 调用线程类创建新线程,返回线程列表 14 for t in threadList: 15 t.setDaemon(True) # 设置守护线程,父线程会等待子线程执行完后再退出 16 t.start() # 线程开启 17 for i in threadList: 18 i.join() # 等待线程终止,等子线程执行完后再执行父线程
欢迎评论说出您的看法,互相学习共同进步