Request对象:

class Request(object_ref):

        def __init__(self, url, callback=None, method='GET', headers=None, body=None,
                 cookies=None, meta=None, encoding='utf-8', priority=0,
                 dont_filter=False, errback=None, flags=None):

        self._encoding = encoding  # this one has to be set first
        self.method = str(method).upper()
        self._set_url(url)
        self._set_body(body)
        assert isinstance(priority, int), "Request priority not an integer: %r" % priority
        self.priority = priority

        if callback is not None and not callable(callback):
            raise TypeError('callback must be a callable, got %s' % type(callback).__name__)
        if errback is not None and not callable(errback):
            raise TypeError('errback must be a callable, got %s' % type(errback).__name__)
        assert callback or not errback, "Cannot use errback without a callback"
        self.callback = callback
        self.errback = errback

        self.cookies = cookies or {}
        self.headers = Headers(headers or {}, encoding=encoding)
        self.dont_filter = dont_filter

        self._meta = dict(meta) if meta else None
        self.flags = [] if flags is None else list(flags)

Request对象在我们写爬虫,爬取一页的数据需要重新发送一个请求的时候调用。这个类需要传递一些参数,其中比较常用的参数有:

  1. url:这个request对象发送请求的url。
  2. callback:在下载器下载完相应的数据后执行的回调函数。
  3. method:请求的方法。默认为GET方法,可以设置为其他方法。
  4. headers:请求头,对于一写固定的设置,放在settings.py中指定就可以了。对于那些非固定的,可以发送请求的时候指定。
  5. meta:比较常用。用于在不同的请求之间传递参数用的。
  6. encoding:编码。默认的为utf-8,使用默认的就可以了。
  7. dont-filter:表示不由调度器过滤。在执行多次重复的请求的时候用的比较多。
  8. errback:在发生错误的时候执行的函数。

Response对象

Response一般由Scrapy给你自动构建的。因此开发者不需要关心如何构建Response对象,而是如何使用他。Response对象由很多属性,可以用来提取数据的。主要由以下属性:

  1. meta:从其他请求传过来的meta属性,可以用来保持多个请求之间的数据连接。
  2. encoding:返回当前字符串编码和解码格式。
  3. text:将返回来的数据作为unicode字符串返回。
  4. body:将返回来的数据作为bytes字符串返回。
  5. xpath:xpath选择器。
  6. css:css选择器。

发送POST请求:

有时候我们想要在请求数据的时候发送post请求,那么这个时候需要使用Request的子类FormRequest来实现。如果想要在爬虫一开始的时候就发送POST请求,那么需要在爬虫类中重写start_requests(self)方法,并且不再调用start_urls里的url