上一页 1 ··· 63 64 65 66 67 68 69 70 71 ··· 97 下一页
摘要: 设置代理的位置:下载中间件 一、内置代理(优点:简单,缺点:只能代理一个ip) 1、源码分析 process_request(self, request, spider)在下载器执行前执行 _set_proxy方法(设置代理)->self.proxies[scheme]->self.proxies 阅读全文
posted @ 2019-10-27 22:15 市丸银 阅读(2612) 评论(0) 推荐(0)
摘要: Scrapy引擎来爬虫中取起始的URL 1、调用start_requests方法(父类),并获取返回值 2、将放回值变成迭代器,通过iter() 3、执行__next__()方法取值 4、把返回值全部放到调度器中 在爬虫类中重写start_requests方法 from scrapy import 阅读全文
posted @ 2019-10-26 20:00 市丸银 阅读(215) 评论(0) 推荐(0)
摘要: 一、深度 配置文件 settings.py 二、优先级 配置文件 优先级为正数时,随着深度越大,优先级越低 源码中,优先级 三、源码分析 1、深度 前提:scrapy yield request对象 -> 中间件 ->调度器... yield Request对象没有设置meta的值,meta默认为N 阅读全文
posted @ 2019-10-26 16:29 市丸银 阅读(1428) 评论(0) 推荐(0)
摘要: 一、原生 1、模块 2、RFPDupeFilter方法 a、request_seen 核心:爬虫每执行一次yield Request对象,则执行一次request_seen方法 作用:用来去重,相同的url只能访问一次 实现:将url值变成定长、唯一的值,如果这个url对象存在,则返回True表名已 阅读全文
posted @ 2019-10-25 23:45 市丸银 阅读(705) 评论(0) 推荐(0)
摘要: 一、items保存爬取的文件 items.py import scrapy class QuoteItem(scrapy.Item): # define the fields for your item here like: # name = scrapy.Field() text = scrapy 阅读全文
posted @ 2019-10-23 23:13 市丸银 阅读(320) 评论(0) 推荐(0)
摘要: 爬取:http://quotes.toscrape.com 单页面 # -*- coding: utf-8 -*- import scrapy class QuoteSpider(scrapy.Spider): name = 'quote' allowed_domains = ['quotes.to 阅读全文
posted @ 2019-10-23 22:41 市丸银 阅读(165) 评论(0) 推荐(0)
摘要: 介绍:大而全的爬虫组件 使用Anaconda conda install -c conda-forge scrapy 一、安装: windows 1.下载 https://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted 耐心等待网页刷新 pip3 instal 阅读全文
posted @ 2019-10-22 22:47 市丸银 阅读(206) 评论(0) 推荐(0)
摘要: requests:伪造浏览器请求 请求 1.get requests.get( url='', params={ 'k1': ''v1, 'k2': 'v2' } ) 即 url?k1=k2&k2=v2 2.post requests.post( url='', # data 提交的数据 data={key: value}, # 请求头 headeres={}, # cookies值需要从get请 阅读全文
posted @ 2019-10-22 15:28 市丸银 阅读(166) 评论(0) 推荐(0)
摘要: 一、常识 二、示例 阅读全文
posted @ 2019-10-19 22:37 市丸银 阅读(199) 评论(0) 推荐(0)
摘要: 安装 注册App 添加中间件必须放在最前面,因为要先解决跨域的问题。只有允许跨域请求,后续的中间件才会正常执行。 配置你可以选择不限制跨域访问 或者你可以选择设置允许访问的白名单 阅读全文
posted @ 2019-10-10 20:29 市丸银 阅读(297) 评论(0) 推荐(0)
上一页 1 ··· 63 64 65 66 67 68 69 70 71 ··· 97 下一页