会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
花名k
博客园
首页
新随笔
联系
订阅
管理
2019年5月28日
scrapy 执行同个项目多个爬虫
摘要: 一开始我们默认都是只有一个爬虫的,所以执行的代码都是在项目下创建一个py文件 但是要执行多个爬虫就犯难了,在这里我只是做个笔记加强记忆 原博客 https://www.cnblogs.com/lei0213/p/7900340.html 其中执行以下: 1、在spiders同级创建任意目录,如:co
阅读全文
posted @ 2019-05-28 10:02 花名k
阅读(1180)
评论(0)
推荐(0)
公告