摘要:
阅读全文
posted @ 2020-01-12 17:13
corei5tj
阅读(5134)
评论(0)
推荐(0)
摘要:
scrapy同时启动多个爬虫 1.在项目里面创建一个commands文件夹 2.在创建好的commands文件夹中创建crawlall.py,并写入下面的内容 3.开启多个爬虫命令 scrapy crawlall 阅读全文
posted @ 2020-01-12 11:41
corei5tj
阅读(93)
评论(0)
推荐(0)

浙公网安备 33010602011771号