随笔分类 - 爬虫
摘要:requests简介 基于get请求 import requests # https://www.baidu.com/s?wd=python url='https://www.baidu.com/s' kw=input(">>:") headers={ 'User-Agent': 'Mozilla/
阅读全文
摘要:爬虫在使用场景中的分类 robots.txt协议 君子协议 User-agent: Baiduspider Allow: /article Allow: /oshtml Allow: /ershou Allow: /$ Disallow: /product/ Disallow: / User-Age
阅读全文

浙公网安备 33010602011771号