摘要:
用 Scrapy 做好的爬虫使用 Scrapyd 来管理发布启动等工作,每次手动执行也很繁琐;考虑可以使用 Hangfire 集成在 web 工程里。 Scrapyd 中启动爬虫的请求如下: curl http://172.0.0.1:8081/schedule.json -d project=spider -d spider=jrj_spider -u name:pwd {"node_name... 阅读全文
posted @ 2018-01-22 14:53
花儿笑弯了腰
阅读(927)
评论(0)
推荐(1)

浙公网安备 33010602011771号