爬取一整张页面的局部数据

抓取ajkx包

这一步出现了一些问题,和老师的不一样,直接输入没有sug包,但是一个一个字母输入可以得到sug包

 代码如下:

import requests
import json
if __name__=='__main__':
    #获取url 注意此处的url为sug包里的url
    url = 'https://fanyi.baidu.com/sug'
    #将参数装入字典
    datas = input('输入要翻译的字符:')
    data = {'kw':datas}
    #伪造头
    headers = {
        'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:106.0) Gecko/20100101 Firefox/106.0'
    }
    #发送请求(这里使用的是post)
    response = requests.post(url = url,data = data,headers = headers)
    #获取数据 与之前不一样的地方
    dic_obj = response.json()
    #持久化存储
    fp = open('./baidutrans','w',encoding='utf-8')
    json.dump(dic_obj,fp=fp,ensure_ascii=False)
    print('over!!!')
    #fp.close()
posted on 2022-11-07 21:04  na2co3-  阅读(175)  评论(0)    收藏  举报