对Python爬虫常见工具总结,欢迎补充

前言

以前写爬虫都是用requests包,虽然很好用,不过还是要封装一些header啊什么的,也没有用过无头浏览器,今天偶然接触了一下。

原因是在处理一个错误的时候,用到了几个以前没有用过的工具;这几个工具也挺常见的,在这里一起总结一下。包括以下几个:

  • selenium
  • requests-html

selenium

简介

selenium是一个网页自动化测试的工具,既然是网页测试的,那么肯定支持各种浏览器了,常见的Firefox/Chrome/Safari都支持;当然,也需要你下载对应浏览器的驱动了。下面简单说一下他的使用方式。

安装

  • 使用pip install selenium安装selenium
  • 安装对应浏览器驱动,chrome的可以去这里下载
  • 把驱动copy到/usr/local/bin下(非必须,不拷贝的话在使用的时候需要制定驱动的路径)

简单使用

'''
遇到问题没人解答?小编创建了一个Python学习交流QQ群:778463939
寻找有志同道合的小伙伴,互帮互助,群里还有不错的视频学习教程和PDF电子书!
'''
from selenium import webdriver

driver = webdriver.chrome.webdriver.WebDriver()
driver.get("https://www.lagou.com/jobs/3490584.html")

# 获取源码
a = driver.page_source.encode('utf-8')

# 查找资源/tag
driver.find_element_by_xpath(u"//img[@alt='强化学习 (Reinforcement Learning)']").click()
driver.find_element_by_link_text("About").click()

# 截图
driver.get_screenshot_as_file("./img/sreenshot1.png")

requests-html

简介

是不是看见requests很熟悉,没错,这个就是会拍照又会写代码的requests的作者写的又一个库;

这个库代码并不是很多,都是基于其他库封装的,lxml/requests啊这些;使用也很简单,遵循了他的宗旨:for humans

安装

pip install requests-html

使用

from requests_html import HTMLSession

session = HTMLSession()
r = session.get('https://python.org/')

# 获取页面上的链接
r.html.links
r.html.absolute_links

# 用css选择器选择一个元素
about = r.html.find('#about', first=True)
print(about.text)

# xpath
r.html.xpath('a')
posted @ 2020-09-18 21:34  python学习者0  阅读(359)  评论(0编辑  收藏  举报