爬虫: requests模块

requests模块

知识点:
  • 掌握 headers参数的使用

  • 掌握 发送带参数的请求

  • 掌握 headers中携带cookie

  • 掌握 cookies参数的使用

  • 掌握 cookieJar的转换方法

  • 掌握 超时参数timeout的使用

  • 掌握 代理ip参数proxies的使用

  • 掌握 使用verify参数忽略CA证书

  • 掌握 requests模块发送post请求

  • 掌握 利用requests.session进行状态保持

 

1. requests模块介绍

requests文档http://docs.python-requests.org/zh_CN/latest/index.html

  • requests模块的作用:发送http请求,获取响应数据

  • requests模块的安装: pip/pip3 install requests

  • 使用requests模块发送请求: 

需求:通过requests向百度首页发送请求,获取该页面的源码
运行下面的代码,观察打印输出的结果
import requests

url = 'http://www.baidu.com'

response = requests.get(url)

# 打印源码的str类型数据
print(response.text)

观察上边代码运行结果发现,有好多乱码;

这是因为编解码使用的字符集不同早造成的,通过chardet模块推测出的编码字符集是 ISO-8859-1  ,而真正的编解码格式是utf8

我们尝试使用下边的办法来解决中文乱码问题

response.encoding = 'utf8'  # 解决乱码问题
response.encoding = response.apparent_encoding  # 解决乱码问题
response.content.decode() # 默认utf-8

知识点:掌握 requests模块发送get请求

 

2. response响应对象

  • response.text是requests模块按照chardet模块推测出的编码字符集进行解码的结果

  • 网络传输的字符串都是bytes类型的,所以response.text = response.content.decode('推测出的编码字符集')

  • 我们可以在网页源码中搜索charset,尝试参考该编码字符集,注意存在不准确的情况

 

2.1 response.text 和response.content的区别:

  • response.text

    • 类型:str

    • 解码类型: requests模块自动根据HTTP 头部对响应的编码作出有根据的推测,推测的文本编码

  • response.content

    • 类型:bytes

    • 解码类型: 没有指定

 知识点:掌握 response.text和response.content的区别

 

 

2.2 通过对response.content进行decode,来解决中文乱码

  • response.content.decode() 默认utf-8

  • response.content.decode("GBK")

  • 常见的编码字符集

    • utf-8

    • gbk

    • gb2312

    • ascii (读音:阿斯克码)

    • iso-8859-1

知识点:掌握 利用decode函数对requests.content解决中文乱码

 

 

2.3 response响应对象的其它常用属性或方法

response = requests.get(url)中response是发送请求获取的响应对象;response响应对象中除了text、content获取响应内容以外还有其它常用的属性或方法:

  • response.url响应的url;有时候响应的url和请求的url并不一致

  • response.status_code 响应状态码

  • response.request.headers 响应对应的请求头

  • response.headers 响应头

  • response.request._cookies 响应对应请求的cookie;返回cookieJar类型

  • response.cookies 响应的cookie(经过了set-cookie动作;返回cookieJar类型

  • response.json()自动将json字符串类型的响应内容转换为python对象(dict or list)

# response其它常用属性
import requests

# 目标url
url = 'https://www.baidu.com'

# 向目标url发送get请求
response = requests.get(url)

# 打印响应内容
# print(response.text)
# print(response.content.decode())             # 注意这里!
print(response.url)                            # 打印响应的url
print(response.status_code)                    # 打印响应的状态码
print(response.request.headers)                # 打印响应对象的请求头
print(response.headers)                        # 打印响应头
print(response.request._cookies)            # 打印请求携带的cookies
print(response.cookies)                        # 打印响应中携带的cookies

知识点:掌握 response响应对象的其它常用属性

 

3. requests模块发送请求

3.1 发送带header的请求

我们先写一个获取百度首页的代码 

import requests

url = 'https://www.baidu.com'

response = requests.get(url)

print(response.content.decode())

# 打印响应对应请求的请求头信息
# print(response.request.headers)

 

输出结果:

{'User-Agent': 'python-requests/2.25.1', 'Accept-Encoding': 'gzip, deflate', 'Accept': '*/*', 'Connection': 'keep-alive'}

 

3.1.1 思考

  1. 对比浏览器上百度首页的网页源码和代码中的百度首页的源码,有什么不同?

    • 查看网页源码的方法:

      • 右键-查看网页源代码 或

      • 右键-检查

  2. 对比对应url的响应内容和代码中的百度首页的源码,有什么不同?

 

查看对应url的响应内容的方法:

  1. 右键-检查

  2. 点击 Net work

  3. 勾选 Preserve log

  4. 刷新页面

  5. 查看Name一栏下和浏览器地址栏相同的url的Response

  6. 代码中的百度首页的源码非常少,为什么?

    • 需要我们带上请求头信息

      回顾爬虫的概念,模拟浏览器,欺骗服务器,获取和浏览器一致的内容

    • 请求头中有很多字段,其中User-Agent字段必不可少,表示客户端的操作系统以及浏览器的信息

3.1.2 携带请求头发送请求的方法

requests.get(url, headers=headers)

  • headers参数接收字典形式的请求头

  • 请求头字段名作为key,字段对应的值作为value

3.1.3 完成代码实现

从浏览器中复制User-Agent,构造headers字典;完成下面的代码后,运行代码查看结果

 

#!/usr/bin/env python
# -*- coding:utf-8 -*-
import requests

url = 'http://www.baidu.com'

# 发送不带请求头的请求
response1 = requests.get(url)
print(len(response1.content.decode()))
# print(response.content.decode())

# 构建请求头字典
headers = {
    "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36"
}

# 发送带请求头的请求
response2 = requests.get(url, headers=headers)
print(len(response2.content.decode()))
# print(response2.content.decode())

携带请求头后,获得的response对象的内容不一样,长度也不一样

输出结果:

2287    # 未携带请求头headers,返回的响应内容长度

304453  # 携带请求头headers, 返回的响应内容长度

 

3.2 发送带参数的请求

我们在使用百度搜索的时候经常发现url地址中会有一个 ?,那么该问号后边的就是请求参数,又叫做查询字符串

3.2.1 在url携带参数

直接对含有参数的url发起请求

#!/usr/bin/env python
# -*- coding:utf-8 -*-
import requests

# 在url中携带参数
url = "https://www.baidu.com/s?wd=python"
headers = {
    "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36"
}
response = requests.get(url=url,headers=headers)

with open('baidu.html','wb') as f:
    f.write(response.content)

3.2.2 通过params携带参数字典

1.构建请求参数字典

2.向接口发送请求的时候带上参数字典,参数字典设置给params

#!/usr/bin/env python
# -*- coding:utf-8 -*-
import requests

# 通过params携带参数字典
url = "https://www.baidu.com/s"
# 构建参数字典
params = {
    'wd': 'python'
}
headers = {
    "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36"
}

response = requests.get(url=url,headers=headers,params=params)
print(response.url)
with open('baidu1.html','wb') as f:
    f.write(response.content)

知识点:掌握发送带参数的请求的方法

 

 

3.3 在headers参数中携带cookie

 

网站经常利用请求头中的Cookie字段来做用户访问状态的保持,那么我们可以在headers参数中添加Cookie,模拟普通用户的请求。我们以github登陆为例:

 

3.3.1 github登陆抓包分析

 

  1. 打开浏览器,右键-检查,点击Net work,勾选Preserve log

  2. 访问github登陆的url地址 https://github.com/login

  3. 输入账号密码点击登陆后,访问一个需要登陆后才能获取正确内容的url,比如点击右上角的Your profile访问https://github.com/USER_NAME

  4. 确定url之后,再确定发送该请求所需要的请求头信息中的User-Agent和Cookie

 

 

3.3.2 完成代码

  • 从浏览器中复制User-Agent和Cookie

  • 浏览器中的请求头字段和值与headers参数中必须一致

  • headers请求参数字典中的Cookie键对应的值是字符串
#!/usr/bin/env python
# -*- coding:utf-8 -*-
import requests

url = "https://github.com/Teamo-Lin"

# 构建请求头
headers = {
    "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36",
    'Cookie': 'xxxxxxxxxx'
}
response = requests.get(url,headers=headers) with open('github_with_cookies.html', 'wb') as f: f.write(response.content)

3.3.3 运行代码验证结果

在打印的输出结果中搜索title

html中的标题文本内容如果是你的github账号,则成功利用headers参数携带cookie,获取登陆后才能访问的页面;

html中的标题文本内容如果是你的github账号 · GitHub,  则没有携带cookie参数,  无法获取登录后的页面;

 

 

3.4 cookies参数的使用

上一小节我们在headers参数中携带cookie,也可以使用专门的cookies参数

  1. cookies参数的形式:字典

    cookies = {"cookie的name":"cookie的value"}

    • 该字典对应请求头中Cookie字符串,以分号、空格分割每一对字典键值对

    • 等号左边的是一个cookie的name,对应cookies字典的key

    • 等号右边对应cookies字典的value

  2. cookies参数的使用方法

    response = requests.get(url, cookies)

  3. 将cookie字符串转换为cookies参数所需的字典:

    cookies_dict = {cookie.split('=')[0]:cookie.split('=')[-1] for cookie in cookies_str.split('; ')}

 

  • 注意:cookie一般是有过期时间的,一旦过期需要重新获取

构建cookie字典有两个方案:

方案一:稳妥方案(建议使用), 工作中尽量使用稳妥简单的方式完成工作,以备回头观看代码

import requests

url = "https://github.com/Teamo-Lin"

# 构建请求头
headers = {
    "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36",
}

# 获取cookie值
temp = '浏览器中的cookie值'

# 构建cookie列表
cookie_list = temp.split('; ')

# 构建cookie字典
# 方案一:稳妥方案
cookies = {}
for cookie in cookie_list:
    cookies[cookie.split('=')[0]] = cookie.split('=')[-1]

print(cookies)
response = requests.get(url,headers=headers, cookies=cookies)

with open('github_with_cookies2.html', 'wb') as f:
    f.write(response.content)

 

方案二:字典推导式, 面试时可以用于展示自己的能力

import requests

url = "https://github.com/Teamo-Lin"

# 构建请求头
headers = {
    "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36",
}

# 获取cookie值
temp = '浏览器中的cookie值'

# 构建cookie列表
cookie_list = temp.split('; ')

# 构建cookie字典

# 方案二:字典推导式
cookies = {cookie.split('=')[0]: cookie.split('=')[-1] for cookie in cookie_list}
print(cookies)

response = requests.get(url,headers=headers, cookies=cookies)

with open('github_with_cookies3.html', 'wb') as f:
    f.write(response.content)

知识点:掌握 cookies参数的使用

 

 

3.5 cookieJar对象转换为cookies字典的方法

使用requests获取的resposne对象,具有cookies属性。该属性值是一个cookieJar类型,包含了对方服务器设置在本地的cookie。我们如何将其转换为cookies字典呢?

转换方法

  • cookies_dict = requests.utils.dict_from_cookiejar(response.cookies)
  • 其中response.cookies返回的就是cookieJar类型的对象

  • requests.utils.dict_from_cookiejar函数返回cookies字典

知识点:掌握 cookieJar的转换方法

 

 

3.6 超时参数timeout的使用

在平时网上冲浪的过程中,我们经常会遇到网络波动,这个时候,一个请求等了很久可能任然没有结果。

在爬虫中,一个请求很久没有结果,就会让整个项目的效率变得非常低,这个时候我们就需要对请求进行强制要求,让他必须在特定的时间内返回结果,否则就报错。

  • 超时参数timeout的使用方法:    response = requests.get(url, timeout=3)
  • timeout=3表示:发送请求后,3秒钟内返回响应,否则就抛出异常

import requests

url = 'https://twitter.com'

response = requests.get(url, timeout=3)

知识点:掌握 超时参数timeout的使用

 

 

3.7 了解代理以及proxy代理参数的使用

proxy代理参数通过指定代理ip,让代理ip对应的正向代理服务器转发我们发送的请求,那么我们首先来了解一下代理ip以及代理服务器

3.7.1 理解使用代理的过程

  1. 代理ip是一个ip,指向的是一个代理服务器

  2. 代理服务器能够帮我们向目标服务器转发请求

 

 

3.7.2 正向代理和反向代理的区别

前边提到proxy参数指定的代理ip指向的是正向的代理服务器,那么相应的就有反向服务器;现在来了解一下正向代理服务器和反向代理服务器的区别

  1. 从发送请求的一方的角度,来区分正向或反向代理

  2. 为浏览器或客户端(发送请求的一方)转发请求的,叫做正向代理

    • 浏览器知道最终处理请求的服务器的真实ip地址,例如VPN

  3. 不为浏览器或客户端(发送请求的一方)转发请求、而是为最终处理请求的服务器转发请求的,叫做反向代理

    • 浏览器不知道服务器的真实地址,例如nginx

 

3.7.3 代理ip(代理服务器)的分类

  1. 根据代理ip的匿名程度,代理IP可以分为下面三类:

    • 透明代理(Transparent Proxy):透明代理虽然可以直接“隐藏”你的IP地址,但是还是可以查到你是谁。目标服务器接收到的请求头如下:
      REMOTE_ADDR = Proxy IP
      HTTP_VIA = Proxy IP
      HTTP_X_FORWARDED_FOR = Your IP
    • 匿名代理(Anonymous Proxy):使用匿名代理,别人只能知道你用了代理,无法知道你是谁。目标服务器接收到的请求头如下:
      REMOTE_ADDR = proxy IP
      HTTP_VIA = proxy IP
      HTTP_X_FORWARDED_FOR = proxy IP
    • 高匿代理(Elite proxy或High Anonymity Proxy):高匿代理让别人根本无法发现你是在用代理,所以是最好的选择。毫无疑问使用高匿代理效果最好。目标服务器接收到的请求头如下
      REMOTE_ADDR = Proxy IP
      HTTP_VIA = not determined
      HTTP_X_FORWARDED_FOR = not determined

       

 

  2.根据网站所使用的协议不同,需要使用相应协议的代理服务。从代理服务请求使用的协议可以分为:

 

    • http代理:目标url为http协议

    • https代理:目标url为https协议

    • socks隧道代理(例如socks5代理)等:

      1. socks 代理只是简单地传递数据包,不关心是何种应用协议(FTP、HTTP和HTTPS等)。

      2. socks 代理比http、https代理耗时少。

      3. socks 代理可以转发http和https的请求

 

3.7.4 proxies代理参数的使用

为了让服务器以为不是同一个客户端在请求;为了防止频繁向一个域名发送请求被封ip,所以我们需要使用代理ip;那么我们接下来要学习requests模块是如何使用代理ip的

  •  用法:
    response = requests.get(url, proxies=proxies)
  • proxies的形式:字典
  • 例如:
    proxies = { 
        "http": "http://12.34.56.79:9527", 
        "https": "https://12.34.56.79:9527", 
    }
  • 注意:如果proxies字典中包含有多个键值对,发送请求时将按照url地址的协议来选择使用相应的代理ip
  • 实例
    #!/usr/bin/env python
    # -*- coding:utf-8 -*-
    
    import requests
    
    url = 'http://www.baidu.com'
    
    # response = requests.get(url)
    
    proxies = {
        'https': 'http://27.105.130.93:8080',
        # 'https': 'https://60.168.80.88:9999',
    }
    response = requests.get(url,proxies=proxies)
    print(response.text)
    View Code

     

知识点:掌握 代理ip参数proxies的使用

 

 

 

3.8 使用verify参数忽略CA证书

 

在使用浏览器上网的时候,有时能够看到下面的提示(2018年10月之前的12306网站):

 

 

 

 

 

3.8.1 运行代码查看代码中向不安全的链接发起请求的效果

运行下面的代码将会抛出包含ssl.CertificateError ...字样的异常

import requests
url = "https://sam.huat.edu.cn:8443/selfservice/"
response = requests.get(url)

 

3.8.2 解决方案

为了在代码中能够正常的请求,我们使用verify=False参数,此时requests模块发送请求将不做CA证书的验证:verify参数能够忽略CA证书的认证

import requests
url = "https://sam.huat.edu.cn:8443/selfservice/" 
response = requests.get(url,verify=False)

知识点:掌握 使用verify参数忽略CA证书

 

 

4. requests模块发送post请求

思考:哪些地方我们会用到POST请求?

  1. 登录注册( 在web工程师看来POST 比 GET 更安全,url地址中不会暴露用户的账号密码等信息)

  2. 需要传输大文本内容的时候( POST 请求对数据长度没有要求)

所以同样的,我们的爬虫也需要在这两个地方回去模拟浏览器发送post请求

4.1 requests发送post请求的方法

  • response = requests.post(url, data)

  • data参数接收一个字典

  • requests模块发送post请求的其它参数和发送get请求的参数完全一致

4.2 POST请求练习

下面面我们通过金山翻译的例子看看post请求如何使用:

  1. 地址:http://fy.iciba.com/

思路分析
  1. 抓包确定请求的url地址

     

     

  2. 确定请求的参数

  3. 确定返回数据的位置

  4. 模拟浏览器获取数据

4.2.3 抓包分析的结论

  1. url地址:http://fy.iciba.com/

  2. 请求方法:POST

  3. 请求所需参数:

    data = {
        'f': 'auto', # 表示被翻译的语言是自动识别
        't': 'auto', # 表示翻译后的语言是自动识别
        'w': '人生苦短' # 要翻译的中文字符串
    }
  4. pc端User-Agent:
    Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36

4.2.4 代码实现

了解requests模块发送post请求的方法,以及分析过移动端的百度翻译之后,我们来完成代码

import requests
import json


class King(object):

    def __init__(self, word):
        self.url = "http://fy.iciba.com/ajax.php?a=fy"
        self.word = word
        self.headers = {
            "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36"
        }
        self.post_data = {
            "f": "auto",
            "t": "auto",
            "w": self.word
        }

    def get_data(self):
        response = requests.post(self.url, headers=self.headers, data=self.post_data)
        # 默认返回bytes类型,除非确定外部调用使用str才进行解码操作
        return response.content

    def parse_data(self, data):

        # 将json数据转换成python字典
        dict_data = json.loads(data)

        # 从字典中抽取翻译结果
        try:
            print(dict_data['content']['out'])
        except:
            print(dict_data['content']['word_mean'][0])

    def run(self):
        # url
        # headers
        # post——data
        # 发送请求
        data = self.get_data()
        # 解析
        self.parse_data(data)

# 用法一:
if __name__ == '__main__':
    # king = King("人生苦短,及时行乐")
    king = King("China")
    king.run()

# 用法二
if __name__ =='__main__':
    word = input('请输入:')
    king = King(word)
    king.run()

# 用法三
print(sys.argv)
if __name__ =='__main__':
    word = sys.argv[1]
    king = King(word)
    king.run()


# python标准库有很多有用的方法,每天看一个标准库的使用
View Code

 知识点:掌握 requests模块发送post请求

 

 

5. 利用requests.session进行状态保持

 

requests模块中的Session类能够自动处理发送请求获取响应过程中产生的cookie,进而达到状态保持的目的。接下来我们就来学习它

 

5.1 requests.session的作用以及应用场景

 

  • requests.session的作用:
    • 自动处理cookie,即 下一次请求会带上前一次的cookie

  • requests.session的应用场景

    • 自动处理连续的多次请求过程中产生的cookie

5.2 requests.session使用方法

session实例在请求了一个网站后,对方服务器设置在本地的cookie会保存在session中,下一次再使用session请求对方服务器的时候,会带上前一次的cookie

session = requests.session() # 实例化session对象
response = session.get(url, headers, ...)
response = session.post(url, data, ...)
  • session对象发送get或post请求的参数,与requests模块发送请求的参数完全一致

5.3 课堂测试

使用requests.session来完成github登陆,并获取需要登陆后才能访问的页面

 

5.3.1 提示

  1. 对github登陆以及访问登陆后才能访问的页面的整个完成过程进行抓包

  2. 确定登陆请求的url地址、请求方法和所需的请求参数

    • 部分请求参数在别的url对应的响应内容中,可以使用re模块获取

  3. 确定登陆后才能访问的页面的的url地址和请求方法

  4. 利用requests.session完成代码

5.3.2 参考代码

#!/usr/bin/env python
# -*- coding:utf-8 -*-

import requests
import re


def login():
    # session
    session = requests.session()

    # headers
    session.headers = {
        'user-agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36',

    }

    # url1  ==> 获取token
    url1 = 'https://github.com/login'
    # 发送请求,获取响应
    res_1 = session.get(url1).content.decode()
    # 正则提前token
    token = re.findall('name="authenticity_token" value="(.*?)" ', res_1)[0]
    print(token)

    # url2  ==> 登录
    url2 = 'https://github.com/session'
        # 构建表单数据
    username = input('请输入github的用户名')
    pwd = input('请输入github的密码')
    data = {
        'commit': 'Sign in',
        'authenticity_token': token,
        'login': username,
        'password': pwd,
        'webauthn-support': 'supported',
    }
    print(data)
        # 发送请求,登录
    session.post(url2,data=data)

    # url3  ==> 验证
    url3 = 'https://github.com/Teamo-Lin'
    response = session.get(url3)
    with open('github.html','wb') as f:
        f.write(response.content)

if __name__ =='__main__':
    login()
View Code

知识点:掌握 利用requests.session进行状态保持

 

 

 

 

posted @ 2021-07-03 10:59  麟灬  阅读(79)  评论(0)    收藏  举报