会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
shanhubei
博客园
首页
新随笔
联系
订阅
管理
2024年1月10日
scrapy -- 暂停爬虫、恢复爬虫
摘要: 1、启动爬虫 scrapy crawl spider -s JOBDIR=record/spider-1 record/spider-1表示一个路径,作用是记录爬虫状态2、暂停爬虫 终端输入Ctrl+C,此时爬虫并不会立即停止,需要等待一会 当终端出现可以敲击命令时,说明爬虫已暂停 3、恢复爬虫 s
阅读全文
posted @ 2024-01-10 09:34 珊瑚贝博客
阅读(215)
评论(0)
推荐(0)
公告