Python Beautiful Soup库

Beautiful Soup库

Beautiful Soup库:https://www.crummy.com/software/BeautifulSoup/

安装Beautiful Soup:

1580889130808

使用Beautiful Soup库

from bs4 import BeautifulSoup	#这里的BeautifulSoup是个类
soup = BeautifulSoup('<p>data</p>','html.parser')#使用html.parser解析器

例子:获取http://python123.io/ws/demo.html的信息

1580889545054

1580889596462

Beautiful Soup库的基本元素

Beautiful Soup库是解析、遍历、维护“标签树”的功能库

Beautiful Soup库,也叫beautifulsoup4或者bs4。

from bs4 import BeautifulSoup	#在bs4库中引入BeautifulSoup类型
soup = BeautifulSoup("<html>data</html>","html.parser")
soup = BeautifulSoup("D://demo.html","html.parser")	#通过打开文件的方式

BeautifulSoup对应一个HTML/XML文档的全部内容

Beautiful Soup库解析器

解析器使用方法条件
bs4的HTML解析器 BeautifulSoup(mk,'html.parser') 安装bs4库
lxml的HTML解析器 BeautifulSoup(mk,'lxml') pip install lxml
lxml的XML解析器 BeautifulSoup(mk,'xml') pip install lxml
html5lib的解析器 BeautifulSoup(mk,'html5lib') pip install html5lib

Beautiful Soup类的基本元素

基本元素说明
Tag 标签,最基本的信息组织单元,分别用<>和</>标明开头和结尾
Name 标签名字,< p >...< /p >的名字是‘p’,格式:< tag >.name
Attributes 标签的属性,字典形式组织,格式:< tag >.attrs
NavigebleString 标签内非属性字符串,<>...</>中字符串,格式:< tag >.string
Comment 标签内字符串的注释部分,一种特殊的Comment类型

基于bs4库的HTML内容遍历方法

标签树的下行遍历

属性说明
.contents 子节点的列表,将< tag >所有儿子节点存入列表
.children 子节点的迭代类型,与.contents类似,用于循环遍历儿子节点
.descendants 子孙节点的迭代类型,包含所有子孙节点,用于循环遍历
for child in soup.body.children:
	print(child)				#遍历body标签儿子节点
    
for child in soup.body.descendants:
    print(child)				#遍历子孙节点

标签树的上行遍历

属性说明
.parent 节点的父亲标签
.parents 节点先辈标签的迭代类型,用于循环遍历先辈节点

打印soup的a标签的所有先辈:

1580896090674

标签树的平行遍历

平行遍历发生在同一个父节点下的各节点间

属性说明
.next_sibling 返回按照HTML文本顺序的下一个平行节点标签
.previous_sibling 返回按照HTML文本顺序的上一个平行节点的标签
.net_sibling 迭代类型,返回按照HTML文本顺序的后续所有平行节点标签
.previous_sibling 迭代类型,返回按照HTML文本顺序的前续所有平行节点标签
for sibling in soup.a.next_siblings:
    print(sibling)			#遍历后续平行节点
    
for sibling in soup.a.previous_sibling:
	print(sibling)			#遍历前续平行节点

基于bs4库的HTML格式化和编码

prettify()方法

.prettify()方法在每个标签后面加了个换行符/n

1580897477605

 

基于bs4库的HTML内容查找方法

.find_all(name, attrs, recursive, string, **kwargs)

返回一个列表类型,存储查找的结果

  • name:对标签名称的检索字符串

1580903655700

  • attres:对标签属性值的检索字符串,可标注属性检索

1580903818840

  • recursive:是否对子孙全部检索,默认True

1580903958598

  • string:<>...</>中字符串区域的检索字符串

1580904150761

 

扩展方法

方法说明
<>.find() 搜索且只返回一个结果,字符串类型,同.find_all()参数
<>.find()_parents() 先辈节点搜索,返回列表类型,同.find_all()参数
<>.find()_parent() 先辈节点返回一个结果,字符串类型,同.find()参数
<>.find()_next_siblings() 后续平行节点中搜索,返回列表类型,同.find_all()参数
<>.find()_next_sibling() 后续平行节点中返回一个结果,字符串类型,同.find()参数
<>.find()_previous_siblings() 前序平行节点中搜素,返回列表类型,同.find()_all参数
<>.find()_previous_sibling() 前序平行节点中返回一个结果,字符串类型,同.find()参数

实例:“中国大学排名定向爬虫”

中国大学排名:

http://www.zuihaodaxue.cn/zuihaodaxuepaiming2016.html

功能描述

  • 输入:大学排名URL链接
  • 输出:大学排名信息的屏幕输出(排名,大学名称,总分)
  • 技术路线:requests-bs4
  • 定向爬虫:仅对输入URL进行爬取,不扩展爬取

程序的结构设计

  • 步骤1:从网络上获取大学排名网页内容 getHTMLText()
  • 步骤2:提取网页内容中信息到合适的数据结构 fillUnivList()
  • 步骤3:利用数据结构展示并输出结果 printUnivList()
import requests
from bs4 import BeautifulSoup
import bs4

def getHTMLText(url):
	try:
		r = requests.get(url, timeout = 30)
		r.raise_for_status()
		r.encoding = r.apparent_encoding
		return r.text
	except:
		return ""

def fillUnivList(ulist, html):
	soup = BeautifulSoup(html, "html.parser")
	for tr in soup.find('tbody').children:	#find查找tbody标签,children循环遍历儿子节点
		if isinstance(tr,bs4.element.Tag):#判断tr是否是类bs4.element.Tag的对象
			tds  = tr('td')
			ulist.append([tds[0].string,tds[1].string,tds[2].string])#.string:<>...</>中字符串区域的检索字符串

def printUnivList(ulist, num):
	tplt = "{0:^10}\t{1:{3}^10}\t{2:^10}"
	print(tplt.format("排名", "学校名称", "总分",chr(12288)))		#chr(12288)中文空格填充
	for i in range(num):
		u=ulist[i]
		print(tplt.format(u[0],u[1],u[2],chr(12288)))


def main():
	unifo = []
	url = 'http://www.zuihaodaxue.cn/zuihaodaxuepaiming2016.html'
	html = getHTMLText(url)
	fillUnivList(unifo, html)
	printUnivList(unifo, 20)	#20 univs
main()

 

posted @ 2021-03-09 16:49  Hp_mzx  阅读(133)  评论(0)    收藏  举报