生成器的应用,爬取网页信息

需求:生成器的应用
然后每次g.send(url),打印页面内容,利用g可以无限send

1 from urllib.request import urlopen   #导入爬虫模块
2 def get():
3     while True:
4         url = yield     #将函数改成协程函数
5         print(urlopen(url).read())  #打印爬取网页的结果
6 
7 g = get()   #将函数改成生成器
8 next(g)     #初始化生成器
9 g.send("http://www.baidu.com") #向迭代器内送值

 


posted @ 2017-04-12 20:11  shy车队破风手  阅读(189)  评论(0编辑  收藏  举报