上一页 1 ··· 4 5 6 7 8
摘要: LinkExtractor提取链接 创建爬虫 scrapy genspider 爬虫名 域名 -t crawl spider from scrapy.linkextractors import LinkExtractor from scrapy.spiders import CrawlSpider, 阅读全文
posted @ 2023-06-24 19:52 jiang_jiayun 阅读(25) 评论(0) 推荐(0)
摘要: 创建CrawlSpider scrapy genspider -t crawl 爬虫名 (allowed_url) Rule对象 Rule类与CrawlSpider类都位于scrapy.contrib.spiders模块中 class scrapy.contrib.spiders.Rule( lin 阅读全文
posted @ 2023-06-24 19:17 jiang_jiayun 阅读(55) 评论(0) 推荐(0)
摘要: spider import scrapy class XiaoshuoSpider(scrapy.Spider): name = "爬虫名" allowed_domains = ["域名"] start_urls = ["第一章url地址"] def parse(self, response): # 阅读全文
posted @ 2023-06-24 19:02 jiang_jiayun 阅读(172) 评论(0) 推荐(0)
摘要: 创建一个项目 scrapy startproject myfrist(project_name) 创建一个爬虫 scrapy genspider 爬虫名 爬虫地址 需要安装pillow pip install pillow 报错:twisted.python.failure.Failure Open 阅读全文
posted @ 2023-06-24 18:51 jiang_jiayun 阅读(114) 评论(0) 推荐(0)
上一页 1 ··· 4 5 6 7 8