[爬虫] 一起来爬知乎娘
知乎内容需要登陆后才能查看,与之前案例不同,这里要向浏览器提交登录信息。
首先爬取知乎登录页面
def getHtmlText(url):
try:
r = requests.get(url)
r.encoding = 'utf-8'
return r.text
except:
return ''
url = 'https://www.zhihu.com/'
getHtmlText(url)
'<html><body><h1>500 Server Error</h1>\nAn internal server error occured.\n</body></html>\n'
此时出现 500 Server Error,解决方法为通过 headers={...} 更改用户代理为浏览器
def getHtmlText(url):
headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36'}
try:
r = requests.get(url, headers = headers)
r.encoding = 'utf-8'
return r.text
except:
return ''
在知乎登录页面打开Chrome浏览器F12,这里打钩之后新跳转的页面的信息就不会覆盖之前接受到的信息,输入账号密码点击登录,就可以看到需要提交的表单数据。

版本一:
#!/usr/bin/env python3
# -*- coding: utf-8 -*-
import requests
import re
import time
from PIL import Image
from bs4 import BeautifulSoup
import json
# 构造 Request headers
# 登陆的url地址
logn_url = 'http://www.zhihu.com/#signin'
session = requests.session()
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/52.0.2743.82 Safari/537.36',
}
content = session.get(logn_url, headers=headers).content
soup = BeautifulSoup(content, 'html.parser')
def getxsrf():
return soup.find('input', attrs={'name': "_xsrf"})['value']
# 获取验证码
def get_captcha():
t = str(int(time.time() * 1000))
captcha_url = 'http://www.zhihu.com/captcha.gif?r=' + t + "&type=login"
r = session.get(captcha_url, headers=headers)
with open('captcha.jpg', 'wb') as f:
f.write(r.content)
f.close()
im = Image.open('captcha.jpg')
im.show()
im.close()
captcha = input("please input the captcha\n>")
return captcha
def isLogin():
# 通过查看用户个人信息来判断是否已经登录
url = "https://www.zhihu.com/settings/profile"
login_code = session.get(url, allow_redirects=False).status_code
if int(x=login_code) == 200:
return True
else:
return False
def login(secret, account):
# 通过输入的用户名判断是否是手机号
if re.match(r"^1\d{10}$", account):
print("手机号登录 \n")
post_url = 'http://www.zhihu.com/login/phone_num'
postdata = {
'_xsrf': getxsrf(),
'password': secret,
'remember_me': 'true',
'phone_num': account,
}
else:
print("邮箱登录 \n")
post_url = 'http://www.zhihu.com/login/email'
postdata = {
'_xsrf': getxsrf(),
'password': secret,
'remember_me': 'true',
'email': account,
}
try:
# 不需要验证码直接登录成功
login_page = session.post(post_url, data=postdata, headers=headers)
login_code = login_page.text
print(login_page.status)
print(login_code)
except:
# 需要输入验证码后才能登录成功
postdata["captcha"] = get_captcha()
login_page = session.post(post_url, data=postdata, headers=headers)
login_code = eval(login_page.text)
print(login_code['msg'])
if __name__ == '__main__':
if isLogin():
print('您已经登录')
else:
account = input('请输入你的用户名\n> ')
secret = input("请输入你的密码\n> ")
login(secret, account)
存在问题:运到验证码为“点击图中倒立文字或移动滑块至”,则登陆失败,跳转到登录界面。听说可以用打码平台解决
版本二(来自某知乎er):
打开你要爬取信息的界面,发出请求查看所需 headers,比较重要的有 'User-Agent' 和 ‘cookie’,对应添加

import requests
import re
url='https://www.zhihu.com/question/22591304/followers'
headers={
'User-Agent':
'Cookie':}
page=requests.get(url,headers=headers).text
imgs=re.findall(r'<img src=\"(.*?)_m.jpg',page)
查看 imgs 即可看到匹配的图片
以下是一段爬取知乎头像的代码:
# -*- coding: utf-8 -*-
#py3.6
import requests
import urllib
import re
import random
from time import sleep
def main():
url='https://www.zhihu.com/question/22591304/followers'
headers={ 'User-Agent':'', 'Cookie':''}
i=1
for x in range(20,40,20):
data={'start':'0',
'offset':str(i),
'_xsrf':'2e65c02ceeaaa1ac16d193415cf8d5be'}
page=requests.post(url,headers=headers,data=data,timeout=50).text
imgs=re.findall(r'<img src=\\"(.*?)_m.jpg',page)
#在爬下来的json上用正则提取图片地址,去掉_m为大图
for img in imgs:
try:
img=img.replace('\\','')
#去掉\字符这个干扰成分
pic=img+'.jpg'
path='d:\\zhihu\\'+str(i)+'.jpg'
#声明存储地址及图片名称
urllib.request.urlretrieve(pic,path)
#下载图片
print(u'下载了第'+str(i)+u'张图片')
i+=1
sleep(random.uniform(0.5,1))
#睡眠函数用于防止爬取过快被封IP
except:
pass
sleep(random.uniform(0.5,1))
if __name__=='__main__':
main()
貌似 get 和 post 方法返回的 .text 形式不一样, post 会用 \\" 转义表示 ”,而 get 不会;
另外,data 中 '_xsrf' 在 F12 Form Data 中没找到,但必不可少,难道隐藏了?要用抓包工具?
浙公网安备 33010602011771号