python爬虫 - 反爬之关于headers头的accept-encoding的问题

复制浏览器的请求数据产生的问题

 

在爬取某网站时,我们习惯于直接在浏览器里复制headers和请求参数,粘贴到自己的代码里进行调试

 

 

 

 

 

 对了这个也是用的httpx处理的,因为这个网站跟上一篇 python爬虫 - 爬虫之针对http2.0的某网站爬取 - 修复版   是同一个网站

 

但是,在爬取某网站时网站时,发现了一个问题:

 

 

 

 

 

 

解码失败

运行:

 

 

无论怎么调试,就是说解码失败

 

后面发现是请求头里的'accept-encoding': 'gzip, deflate, br'

 

关键点

 

把其中的br删除掉就可以正常拿到数据:

 

 

 

 

 

 

 

有关accpt-encoding的,可以看这篇博客:

 

 

https://blog.csdn.net/weixin_40414337/article/details/88561066

 

精简的意思就是,accpet-encoding的作用是以客户端的身份告诉服务端,我支持那些数据压缩类型的,如果指定的话,服务端就会按指定好的格式返回,如果不指定的话就会不压缩,而以源数据返回

其中gzip和deflare两种类型的压缩,requests和httpx等主流的爬虫库都是可以自己解压缩数据的,而就是br不行,因为br是目前来说比较新的一种数据压缩格式,无损压缩,压缩比极高,比前两个都好,进而减少传输数据的大小,节省时间,所以目前的都支持br,浏览器也自然支持的,这就是问题所在

 

这也就是我上面把br删了就可以正常解析的原因

 

直面问题并解决

 

另外,针对br的,假如有的网站就支持br呢?咋办?   所以在代码层面也是要解决的,而不是逃避问题的把br删除掉

 

解决办法就是需要用brotli库(第三方库,需要安装)来解压,上面的博客里的案例

 

 

 

 

安装完brotli后执行:

 

 

那么,用这种brotli压缩还可以一定程度上达到反爬的效果,反正如果不知道这个的话,拿到返回的数据后你用各种编码方式(utf-8,gbk,gb18030,bt5)啥啥的,怎么解码都解不了,是不是可以防止一些初级的爬虫了啊

 

20211028补充

 

据悉,requests最新版已经支持br的解析,但只支持python3.7+的版本

 

posted @ 2021-05-21 20:51  Eeyhan  阅读(1201)  评论(8编辑  收藏  举报