摘要: 一.scrapy框架基于CrawlSpider的全站数据爬取 1.使用 1.创建scrapy工程:scrapy startproject projectName 2.创建爬虫文件:scrapy genspider -t crawl spiderName www.xxx.com 生成的爬虫文件 Lin 阅读全文
posted @ 2019-03-05 19:59 Montant 阅读(575) 评论(0) 推荐(0)