requests模块处理cookie相关的请求

爬虫中使用cookie

为了能够通过爬虫获取到登录后的页面,或者是解决通过cookie的反扒,需要使用request来处理cookie相关的请求

 爬虫中使用cookie的利弊

  • 带上cookie的好处

    • 能够访问登录后的页面

    • 能够实现部分反反爬

  • 带上cookie的坏处

    • 一套cookie往往对应的是一个用户的信息,请求太频繁有更大的可能性被对方识别为爬虫

    • 那么上面的问题如何解决 ?使用多个账号

requests处理cookie的方法

使用requests处理cookie有三种方法:

  • cookie字符串放在headers中

  • 把cookie字典放传给请求方法的cookies参数接收

  • 使用requests提供的session模块

cookie添加在heades中

headers中cookie的位置

  • headers中的cookie:

    • 使用分号(;)隔开

    • 分号两边的类似a=b形式的表示一条cookie

    • a=b中,a表示键(name),b表示值(value)

    • 在headers中仅仅使用了cookie的name和value

cookie的具体组成的字段

由于headers中对cookie仅仅使用它的name和value,所以在代码中我们仅仅需要cookie的name和value即可

在headers中使用cookie

复制浏览器中的cookie到代码中使用

headers = {
"User-Agent":"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36",
"Cookie":" Pycharm-26c2d973=dbb9b300-2483-478f-9f5a-16ca4580177e; Hm_lvt_98b9d8c2fd6608d564bf2ac2ae642948=1512607763; Pycharm-26c2d974=f645329f-338e-486c-82c2-29e2a0205c74; _xsrf=2|d1a3d8ea|c5b07851cbce048bd5453846445de19d|1522379036"}
​
requests.get(url,headers=headers)
注意:

cookie有过期时间 ,所以直接复制浏览器中的cookie可能意味着下一程序继续运行的时候需要替换代码中的cookie,对应的我们也可以通过一个程序专门来获取cookie供其他程序使用;当然也有很多网站的cookie过期时间很长,这种情况下,直接复制cookie来使用更加简单

使用cookies参数接收字典形式的cookie

  • cookies的形式:字典

cookies = {"cookie的name":"cookie的value"}
  • 使用方法:

requests.get(url,headers=headers,cookies=cookie_dict}
  • 实例(爬取雪球网)

    在网络中找到当前请求的网址 点击cookies 将当前的k,value复制到代码中

    import requests
    headers = {
        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/100.0.4896.127 Safari/537.36',
        'Referer': 'https://xueqiu.com/u/1990923459',
        'cookie': 'device_id=08b44b5869899303a4d735621df8c4d4; Hm_lvt_1db88642e346389874251b5a1eded6e3=1673183274; remember=1; snbim_minify=true; s=bt1c6hkm25; bid=af8fd9a2a4582356ca74aff7fac9e0c9_lcnhd0dh; xq_a_token=140b9d69cb9f100ad486013ceeb783e9bb0696f5; xq_r_token=51944912a96da76eef33a19d179cbfa8812d17e8; xq_id_token=eyJ0eXAiOiJKV1QiLCJhbGciOiJSUzI1NiJ9.eyJ1aWQiOi0xLCJpc3MiOiJ1YyIsImV4cCI6MTY3NDc3ODgwNiwiY3RtIjoxNjczMTg5OTgyMTYzLCJjaWQiOiJkOWQwbjRBWnVwIn0.F2QY71nh2ahy4p62KCKZ64ZLu-biTcPcRi_asDx1tKBXSOC7uFtxfmjOmZ7rBMkv6ufu6cuw1cfKdvPDU9-yaE7BLFMzd6Wjtfj3fsd1Bp78uT2YmFs6xh9RJqlsJVbKe1WVD2wgiyRVgzgoNOV_1tB3IEyAm7H-AkvbvHnLVAlrcUTYgyvj-2O0FwJdLbyXmtTlYU3-4iRUxlMVtPmjuemGEEHZzLqt_uAp2vUSAfp0BwNA3_vhdRf2mXkHbADijR7ct-Zia5AFZ0ROqzlP3ZLxmXR0btLAQKyX6g9VH-4CvF49WWzsv0TbINY-uff1jkzoV0Snn1a1SoEMCGd0iQ; u=751673190028910; Hm_lpvt_1db88642e346389874251b5a1eded6e3=1673190051'
    }
    url = 'https://stock.xueqiu.com/v5/stock/hot_stock/list.json?size=8&_type=10&type=10'
    response = requests.get(url, headers=headers)
    print(response.text)

自动获取cookie并携带

import requests

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36',
    'Referer': 'https://xueqiu.com/',
}

url = 'https://xueqiu.com/'
response = requests.get(url, headers=headers)
cookies = dict(response.cookies)   # cookie对象转换为字典
url = 'https://xueqiu.com/statuses/hot/listV2.json?since_id=-1&max_id=414873&size=15'
# 使用cookies参数携带cookie
response = requests.get(url, headers=headers, cookies=cookies)
print(response.text)

使用requests.session处理cookie

前面使用手动的方式使用cookie,那么有没有更好的方法在requets中处理cookie呢?

requests 提供了一个叫做session类,来实现客户端和服务端的会话保持

会话保持有两个内涵:

  • 保存cookie,下一次请求会带上前一次的cookie

  • 实现和服务端的长连接,加快请求速度

使用方法

session = requests.session()
response = session.get(url,headers)

session实例在请求了一个网站后,对方服务器设置在本地的cookie会保存在session中,下一次再使用session请求对方服务器的时候,会带上前一次的cookie

import requests

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36',
    'Referer': 'https://xueqiu.com/',
}

url = 'https://xueqiu.com/'
session = requests.Session()   # 创建session对象  会自动处理cookie
session.get(url, headers=headers)

url = 'https://stock.xueqiu.com/v5/stock/hot_stock/list.json?size=8&_type=10&type=10'
# 使用cookies参数携带cookie
response = session.get(url, headers=headers)
print(response.text)

动手练习:模拟登陆

在登陆界面,输入一个错误的账号密码,然后点击登陆,然后就拿到了登陆的URL以及携带post的表单数据。

发送post请求进行登陆:

import requests

# 请求头
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36',
    'Referer': 'https://passport.17k.com/login/index.html'
}

# 携带post的表单数据
data = {
    'loginName': '17346570232',
    'password': 'xlg17346570232'
}
url = 'https://passport.17k.com/ck/user/login'
response = requests.post(url, headers=headers, data=data)
print(response.text)

抓取登录后的数据:

import requests

# 请求头
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36',
    'Referer': 'https://passport.17k.com/login/index.html'
}

# 携带post的表单数据
data = {
    'loginName': '17346570232',
    'password': 'xlg17346570232'
}
url = 'https://passport.17k.com/ck/user/login'
response = requests.post(url, headers=headers, data=data)
cookies = dict(response.cookies)  # 此刻获取到响应的cooki就是你登录后的

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36',
    'Referer': 'https://user.17k.com/www/bookshelf/index.html',
}
# 登录后才能访问的地址
books = 'https://user.17k.com/ck/user/myInfo/96139098?bindInfo=1&appKey=2406394919'
response = requests.get(books, headers=headers, cookies=cookies)
print(response.text)

requests.session处理登陆后的cookie:

import requests

# 请求头
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36',
    'Referer': 'https://passport.17k.com/login/index.html'
}

# 携带post的表单数据
data = {
    'loginName': '17346570232',
    'password': 'xlg17346570232'
}
url = 'https://passport.17k.com/ck/user/login'
session = requests.Session()
session.post(url, headers=headers, data=data)

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36',
    'Referer': 'https://user.17k.com/www/bookshelf/index.html',
}
# 登录后才能访问的地址
books = 'https://user.17k.com/ck/user/myInfo/96139098?bindInfo=1&appKey=2406394919'
response = session.get(books, headers=headers)
print(response.text)

 

思路分析
  1. 准备url地址和请求参数

  2. 构造session发送post请求

  3. 使用session请求个人主页,观察是否请求成功

 

 

 

posted @ 2022-05-14 00:51  屠魔的少年  阅读(11)  评论(0)    收藏  举报