• 博客园logo
  • 会员
  • 众包
  • 新闻
  • 博问
  • 闪存
  • 赞助商
  • HarmonyOS
  • Chat2DB
    • 搜索
      所有博客
    • 搜索
      当前博客
  • 写随笔 我的博客 短消息 简洁模式
    用户头像
    我的博客 我的园子 账号设置 会员中心 简洁模式 ... 退出登录
    注册 登录
Dragon水魅
博客园    首页    新随笔    联系   管理    订阅  订阅

python爬虫 requests库返回403

今天计划完成多年前的心愿,python爬取妹子图,结果第一步就给我返回了403,经过排查是一个特别弱智的错误,特此记录,提醒自己怎么能这么憨批(手动狗头)。

import requests
from bs4 import BeautifulSoup

kv = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36',
      'referer': 'https://www.mzitu.com/',
      'cookie': 'Hm_lvt_dbc355aef238b6c32b43eacbbf161c3c=1575636408; Hm_lpvt_dbc355aef238b6c32b43eacbbf161c3c=1575636892'}
demo = requests.get('https://www.mzitu.com/xinggan/page/2/', headers = kv)
soup = BeautifulSoup(demo.content, 'html.parser')
for url in soup.find_all('a', target = True):
    print(url)

问题原因,没有设置headers请求头,被服务器拦截,一般情况下设置user-agent即可。

posted @ 2019-12-06 21:25  Dragon水魅  阅读(4363)  评论(0)    收藏  举报
刷新页面返回顶部
博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3