分布式:
    - 概念:组件一个分布式的机群,让后让其共同执行同一组程序,实现数据的分布爬取。
    - 如何实现分布式?
        - scrapy-redis组件结合原生的scrapy实现分布式
    - 原生的scrapy是无法实现分布式?
        - 无法共享一个调度器
        - 无法共享同一个管道
    - scrapy-redis作用:
        - 可以给scrapy提供共享的调度器和管道
分布式编码流程:
    1.工程的创建
    2.创建爬虫文件
        - Spider
        - CrawlSpider
    3.修改爬虫文件:
        - 导包:from scrapy_redis.spiders import RedisCrawlSpider
        - 将爬虫类的父类修改成RedisCrawlSpider
        - 将allow_demains和start_urls删除
        - 添加一个新属性:redis_key = 'xxx':调度器队列的名称
        - 完善爬虫类的相关代码(连接提取器,规则解析器,解析方法)
    4.配置文件的编写:
        - 指定管道:
            ITEM_PIPELINES = {
                'scrapy_redis.pipelines.RedisPipeline': 400
            }
        - 指定调度器:
            # 增加了一个去重容器类的配置, 作用使用Redis的set集合来存储请求的指纹数据, 从而实现请求去重的持久化
            DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
            # 使用scrapy-redis组件自己的调度器
            SCHEDULER = "scrapy_redis.scheduler.Scheduler"
            # 配置调度器是否要持久化, 也就是当爬虫结束了, 要不要清空Redis中请求队列和去重指纹的set。如果是True, 就表示要持久化存储, 就不清空数据, 否则清空数据
            SCHEDULER_PERSIST = True
        - 指定数据库:
            REDIS_HOST = 'redis服务的ip地址'
            REDIS_PORT = 6379
    5.修改redis的配置:redis.windows.conf
        - 关闭默认绑定:#bind 127.0.0.1
        - 关闭保护模式:protected-mode no
    6.结合着配置文件启动redis服务
        - redis-server ./redis.windows.conf
    7.启动redis客户端
        - redis-cli
    8.启动执行分布式工程:
        - scrapy crawl fbs
        - scrapy runspider ./xxx.py
    9.向调度器队列中扔入一个起始的url:
        - 调度器的队列是存放在redis中
        - 在redis-cli:lpush redis_key的值  www.xxx.com
                    
                
                
            
        
浙公网安备 33010602011771号