Loading

Scrapy爬虫的暂停和启动

在执行爬虫时使用以下命令

scrapy crawl 爬虫名称 -s JOBDIR=保存记录信息的路径
例:
scrapy crawl movie -s JOBDIR=stop_scrapy	# 执行命令会启动指定爬虫,并且记录状态到指定目录stop_scrapy中

爬虫已经启动,我们可以按键盘上的ctrl+c停止爬虫,停止后我们看一下记录文件夹,会多出3个文件,其中的requests.queue文件夹里的p0文件就是URL记录文件,这个文件存在就说明还有未完成的URL,当所有URL完成后会自动删除此文件

当我们重新执行命令:scrapy crawl movie -s JOBDIR=stop_scrapy 时爬虫会根据p0文件从停止的地方开始继续爬取。

posted @ 2021-11-01 00:10  北兢王  阅读(274)  评论(0)    收藏  举报