摘要:
1.创建爬虫项目 2.创建爬虫文件 3.运行(crawl) 4.check检查错误 5.list返回项目所有spider 6.view 存储、打开网页 7.scrapy shell, 进入终端 8.scrapy runspider 阅读全文
posted @ 2019-11-09 09:22
hank-li
阅读(317)
评论(0)
推荐(0)
摘要:
首先创建项目: 第二步: 明确要抓取的字段 第三步: 在spider目录下创建爬虫文件: 2.1 创建一个类,并继承scrapy的一个子类: 2.2 自定义爬取名, 后面运行框架需要用到; 2.3 定义爬取目标网址 2.4 定义scrapy的方法 下面是简单项目: 第四步: 在 文件中设置数据保存到 阅读全文
posted @ 2019-11-09 00:58
hank-li
阅读(207)
评论(0)
推荐(0)

浙公网安备 33010602011771号