爬虫&逆向--Day02--Requests

一、爬虫初始

1.1、爬虫相关介绍

  • 什么是爬虫?

    • 爬虫程序是需要充当B/S或者C/S架构中的客户端。

    • 爬虫程序需要模拟客户端进行请求发送,然后获取服务器端对应的相关数据。

    • 在B/S架构中爬虫程序模拟的就是浏览器。

  • 提问:如果日后你的爬虫程序没有爬取到你想要的数据,why?

    • 爬虫程序模拟浏览器的力度不够。

  • 爬虫在应用场景的分类?

    • 通用爬虫:可以将一个页面中所有的数据都爬取到。

    • 聚焦爬虫:建立在通用爬虫基础之上。可以将一张页面中局部、指定的数据进行抓取

    • 增量式爬虫:可以监测网站数据更新的情况。以便将最新更新出来的数据进行抓取

  • 爬虫的矛与盾(重点)?

    • 反爬机制:作用在门户网站中,网站会指定出一些阻止爬虫程序进行数据爬取的机制。

    • 反反爬策略:作用在爬虫程序中,可以指定破解反爬机制的策略,这些策略就是反反爬策略。

1.2、爬虫合法性探究

  • 爬虫作为一种计算机技术就决定了它的中立性,因此爬虫本身在法律上并不被禁止,但是利用爬虫技术获取数据这一行为是具有违法甚至是犯罪的风险的。所谓具体问题具体分析,正如水果刀本身在法律上并不被禁止使用,但是用来捅人,就不被法律所容忍了。

  • 或者我们可以这么理解:爬虫是用来批量获得网页上的公开信息的,也就是前端显示的数据信息。因此,既然本身就是公开信息,其实就像浏览器一样,浏览器解析并显示了页面内容,爬虫也是一样,只不过爬虫会批量下载而已,所以是合法的。不合法的情况就是配合爬虫,利用黑客技术攻击网站后台,窃取后台数据(比如用户数据等)。

  • 举个例子:像谷歌这样的搜索引擎爬虫,每隔几天对全网的网页扫一遍,供大家查阅,各个被扫的网站大都很开心。这种就被定义为“善意爬虫”。但是像抢票软件这样的爬虫,对着 12306 每秒钟恨不得撸几万次,铁总并不觉得很开心,这种就被定义为“恶意爬虫”。

  • 爬虫所带来风险主要体现在以下3个方面:

    • 1、违反网站意愿,例如网站采取反爬措施后,强行突破其反爬措施;

    • 2、爬虫干扰了被访问网站的正常运营;

    • 3、爬虫抓取了受到法律保护的特定类型的数据或信息。

  • 那么作为爬虫开发者,如何在使用爬虫时避免进局子的厄运呢?

    • 1、在规避反爬虫措施的同时,需要优化自己的代码,避免干扰被访问网站的正常运行;

    • 2、在使用、传播抓取到的信息时,应审查所抓取的内容,如发现属于用户的个人信息、隐私或者他人的商业秘密的,应及时停止并删除。

  • 总结:

    • 可以说在我们身边的网络上已经密密麻麻爬满了各种网络爬虫,它们善恶不同,各怀心思。而越是每个人切身利益所在的地方,就越是爬满了爬虫。所以爬虫是趋利的,它们永远会向有利益的地方爬行。技术本身是无罪的,问题往往出在人无限的欲望上。因此爬虫开发者的道德自持和企业经营者的良知才是避免触碰法律底线的根本所在。

1.3、requests基础操作

  • 基本介绍

    • reqeusts是用来进行网络请求的一个python模块,其作用可以使用程序模拟浏览器进行请求发送。

  • 环境安装

    • pip install requests

  • 编码流程

    • 指定url

    • 发起请求

    • 获取响应数据(想爬取的数据)

    • 持久化存储

二、案例应用

2.1、东方财富首页数据爬取

import requests


# 1、指定请求的URL
url = "https://www.eastmoney.com/"

# 2、发起请求:根据指定的url进行请求发送。get函数会返回该请求的响应对象。
response = requests.get(url)
print("响应状态码:",response.status_code)  # 查看响应状态码

# 3、获取响应数据
page_text = response.text  # 返回字符串形式的响应数据   content-type : text/html; charset=UTF-8  text类型就用response.text类型接收
# 4、持久化存储
with open('./caifu.html','w',encoding='utf-8') as fp:
    fp.write(page_text)

print("数据爬取结束!")

中文乱码解决方式  response.encoding = 'utf-8'

import requests


# 1、指定请求的URL
url = "https://www.eastmoney.com/"

# 2、发起请求:根据指定的url进行请求发送。get函数会返回该请求的响应对象。
response = requests.get(url)
print("响应状态码:",response.status_code)  # 查看响应状态码

# 设置响应数据的编码格式
response.encoding = 'utf-8'

# 3、获取响应数据
page_text = response.text  # 返回字符串形式的响应数据

# 4、持久化存储
with open('./caifu.html','w',encoding='utf-8') as fp:
    fp.write(page_text)

print("数据爬取结束!")

2.2、爬取51游戏中任何游戏对应的搜索结果页面数据

import requests

# 输入要查询的游戏
game_title = input('enter a game key:')

# 字典可以存放请求携带的所有的请求参数
params = {
    'q': game_title
}

# 1、指定url
url = 'https://game.51.com/search/action/game/'

# 2、发起请求:向指定的url携带了指定的请求参数进行的请求发送
response = requests.get(url=url, params=params)

# 3、获取响应数据
page_text = response.text

# 4、持久化存储
with open('51YouXi.html', 'w', encoding='utf-8') as fp:
    fp.write(page_text)

2.3、中国人事考试网--(UA检测)

  • url:http://www.cpta.com.cn/

    • 爬虫模拟浏览器主要是模拟请求参数和主要的请求头。

      • User-Agent:请求载体的身份标识。

        • 使用浏览器发请求,则请求载体就是浏览器

        • 使用爬虫程序发请求,则请求载体就是爬虫程序

    • 反爬机制:UA检测

      • 网站后台会检测请求的载体是不是浏览器,如果是则返回正常数据,不是则返回错误数据。

    • 反反爬机制:UA伪装

      • 将爬虫发起请求的User-Agent伪装成浏览器的身份。

import requests

# 1、指定url
url = 'http://www.cpta.com.cn/'

# 2、发起请求:向指定的url发送请求
response = requests.get(url=url)

# 3、获取响应数据
page_text = response.text

# 4、持久化存储
with open('ChinaHR_01.html', 'w', encoding='utf-8') as fp:
    fp.write(page_text)

print('爬虫数据结束')

结果:网站后台检测到请求的载体不是浏览器,所以返回错误数据

 处理策略:使用反反爬机制--UA伪装  #User-Agent:请求载体(浏览器,爬虫程序)的身份表示

import requests

# 1、指定url
url = 'http://www.cpta.com.cn/'

# User-Agent:请求载体(浏览器,爬虫程序)的身份表示
header = {'user-agent':
'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/128.0.0.0 Safari/537.36'}

# 2、发起请求:向指定的url发送请求  伪装了浏览器的请求头
response = requests.get(url=url, headers=header)

# 3、获取响应数据
page_text = response.text

# 4、持久化存储
with open('ChinaHR_01.html', 'w', encoding='utf-8') as fp:
    fp.write(page_text)

print('爬虫数据结束')

# 程序模拟浏览器的力度不够

2.4、中国人事考试网--站内搜索(post请求+请求参数)

import requests

# 1、指定url
url = 'http://www.cpta.com.cn/category/search'

# post请求的,请求参数
param = {
'keywords': '人力资源',
 '搜 索': '搜 索'
}

# User-Agent:请求载体(浏览器,爬虫程序)的身份表示
header = {'user-agent':
'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/128.0.0.0 Safari/537.36'}
# 2、向指定的url 发送请求 response = requests.post(url=url, data=param, headers=header) # 3、获取响应数据 page_text = response.text # 4、持久化存储 with open('ChinaHR_02.html', 'w', encoding='utf-8') as fp: fp.write(page_text)

2.5、智慧职教(动态加载数据爬取)--(重点)

  • 抓取智慧职教官网中的专业群板块下的所有数据

  • 测试:直接使用浏览器地址栏中的url,进行请求发送查看是否可以爬取到数据?

    • 不用写程序,基于抓包工具测试观察即可。

  • 经过测试发现,我们爬取到的数据并没有包含想要的数据,why?

  • 动态加载数据:

    • 在一个网页中看到的数据,并不一定是通过浏览器地址栏中的url发起请求请求到的。如果请求不到,一定是基于其他的请求请求到的数据。

    • 动态加载数据值的就是:

      • 不是直接通过浏览器地址栏的url请求到的数据,这些数据叫做动态加载数据。

    • 如何获取动态加载数据?

      • 确定动态加载的数据是基于哪一个数据包请求到的?

      • 数据包数据的全局搜索:

        • 点击抓包工具中任何一个数据包

        • control+f进行全局搜索(弹出全局搜索框)

          • 目的:定位动态加载数据是在哪一个数据包中

        • 定位到动态加载数据对应的数据包,模拟该数据包进行请求发送即可:

          • 从数据包中提取出:

            • url

            • 请求参数

    注意:请求头中需要携带Referer。(体现模拟浏览器的力度)

import requests

# 1、确定URL
url = 'https://www.icve.com.cn/portal/course/getNewCourseInfo'
data = {
    'kczy': '2v9darmmj6fpt-zavmx0eg',
    'order': '',
    'printstate': '',
    'keyvalue': ''
}

headers = {
    'user-agent':
'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/128.0.0.0 Safari/537.36'
}

# 2、向指定的url,发送请求
response = requests.post(url=url, data=data, headers=headers)
page_text = response.json()  #  content-type:application/json; charset=utf-8   application/json类型就需要response.json接收
print(page_text)

结果:非法请求  模拟浏览器力度不够,需要在请求头中携带Referer

 处理策略:请求头中需要携带Referer。(体现模拟浏览器的力度)

import requests

# 1、确定URL
url = 'https://www.icve.com.cn/portal/course/getNewCourseInfo'
data = {
    'kczy': '2v9darmmj6fpt-zavmx0eg',
    'order': '',
    'printstate': '',
    'keyvalue': ''
}

headers = {
    'user-agent':
'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/128.0.0.0 Safari/537.36',
'referer':'https://www.icve.com.cn/portal_new/course/course.html'
}

# 2、向指定的url,发送请求
response = requests.post(url=url, data=data, headers=headers)
page_text = response.json()  #  content-type:application/json; charset=utf-8   application/json类型就需要response.json接收
print(page_text)

 

结果:

 对获取到的JSON字符串进行解析,获取JSON字符串中的数据

import requests

data = {
    'kczy': '2v9darmmj6fpt-zavmx0eg',
    'order': '',
    'printstate': '',
    'keyvalue': ''
}

headers = {
    'user-agent':
'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/128.0.0.0 Safari/537.36',
'referer':'https://www.icve.com.cn/portal_new/course/course.html'
}
#
1、确定URL url = 'https://www.icve.com.cn/portal/course/getNewCourseInfo' # 2、向指定的url,发送请求 response = requests.post(url=url, data=data, headers=headers) page_text = response.json() # content-type:application/json; charset=utf-8 application/json类型就需要response.json接收 # print(page_text) # 对获取到的JSON字符串进行解析,获取JSON字符串中的数据 for dic in page_text['list']: Title = dic['Title'] Teacher = dic['TeacherDisplayname'] UnitName = dic['UnitName'] print(Title,Teacher,UnitName)

 

 

结果:

 以上是获取的查询结果中的第一页,如果想获取查询结果中的多页数据,就需要便利请求

import requests

data = {
    'kczy': '2v9darmmj6fpt-zavmx0eg',
    'order': '',
    'printstate': '',
    'keyvalue': ''
}

headers = {
    'user-agent':
'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/128.0.0.0 Safari/537.36',
'referer':'https://www.icve.com.cn/portal_new/course/course.html'
}
# 便利发送请求
for page in range(1,4): if page == 1: url = 'https://www.icve.com.cn/portal/course/getNewCourseInfo' else: url = 'https://www.icve.com.cn/portal/course/getNewCourseInfo?page=%d'%page # 2、向指定的url,发送请求 response = requests.post(url=url, data=data, headers=headers) page_text = response.json() # content-type:application/json; charset=utf-8 application/json类型就需要response.json接收 # print(page_text) # 对获取到的JSON字符串进行解析,获取JSON字符串中的数据 for dic in page_text['list']: Title = dic['Title'] Teacher = dic['TeacherDisplayname'] UnitName = dic['UnitName'] print(Title,Teacher,UnitName)

 

结果:

2.6、图片数据爬取

 方式一:

import requests

header = {
    'user-agent':
'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/128.0.0.0 Safari/537.36'
}

# 1、指定url
url = 'https://img0.baidu.com/it/u=540025525,3089532369&fm=253&fmt=auto&app=138&f=JPEG?w=889&h=500'

# 2、向指定的URL发送请求
response = requests.get(url= url, headers= header)

# 3、获取返回的数据
image_data = response.content # content返回的是二进制形式的响应数据(图片、音频、视频、媒体、压缩包)

# 4、持久化存储
with open('image.jpg','wb') as fp:
    fp.write(image_data)

 

方式二:

from urllib.request import urlretrieve

# 图片地址
image_url= 'https://img0.baidu.com/it/u=540025525,3089532369&fm=253&fmt=auto&app=138&f=JPEG?w=889&h=500'

#参数1:图片地址
#参数2:图片存储路径
#urlretrieve可以根据图片地址将图片数据请求到直接存储到参数2表示的图片存储路径中
urlretrieve(image_url,'1.jpg')

 

备注:

  • 爬取图片的时候需要做UA伪装使用方式1,否则使用方式2

三、作业

小试牛刀:

"""
小试牛刀:
url:https://www.xiachufang.com/
实现爬取下厨房网站中任意菜谱搜索结果数据爬取
"""
import requests

# 请输入您需要查询的菜品名称
Caipin_Name = input("请输入您需要查询的菜品名称:")

# 字典存储请求携带的所有的请求参数
params = {
    'keyword': Caipin_Name,
    'cat': '1001'
}

# 1、指定url
url = 'https://www.xiachufang.com/search/'

# 2、向指定的URL发送请求
response = requests.get(url=url, params=params)

# 3、获取响应数据
page_text = response.text

# 4、对数据进行持久化存储
with open(Caipin_Name+'.html', 'w', encoding='utf-8') as fp:
    fp.write(page_text)

 

小试牛刀:

"""
小试牛刀:
url :https://sogou.com/
爬取任意关键字对应的搜索页面
"""

import requests Input_Text = input("请输入您要查询的内容:") url = 'https://sogou.com/web' params = { 'query': Input_Text, '_asf': 'www.sogou.com', '_ast': '', 'w': '01019900', 'p': '40040100', 'ie': 'utf8', 'from': 'index-nologin', 's_from': 'index', 'sourceid': '9_01_03', 'sessiontime': '1749555255392' } headers = { 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/128.0.0.0 Safari/537.36', 'referer':'https://sogou.com/' } response = requests.get(url=url, params=params,headers=headers) page_text = response.text with open(Input_Text+'.html', 'w', encoding='utf-8') as fp: fp.write(page_text)

 

肯德基(POST请求、动态加载数据、UA检测)

'''
肯德基(POST请求、动态加载数据、UA检测)
http://www.kfc.com.cn/kfccda/storelist/index.aspx
将餐厅的位置信息进行数据爬取
'''
import requests

City = input("请输入您要查询的城市:")

url = 'http://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=cname'
data = {
    'cname': City,
    'pid': '',
    'pageIndex': 1,
    'pageSize': 10
}

headers = {
'user-agent':
'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/128.0.0.0 Safari/537.36'
}

response = requests.post(url=url,data=data,headers=headers)
page_text = response.json()
# print(page_text)

for dic in page_text['Table1']:
    addressDetail = dic['addressDetail']
    storeName = dic['storeName']
    cityName = dic['cityName']
    print(addressDetail, storeName, cityName)

 

结果:

 备注:只要不是二进制都可以使用response.text接收

 

posted @ 2025-06-10 20:21  L遇上J  阅读(43)  评论(0)    收藏  举报