python之BeautifulSoup模块
文章最后更新时间为:2018年08月14日 10:07:13
前面我们介绍了requests库,简单入门了re正则表达式的基本用法,这次要介绍的是Beautiful Soup库,这是一个用于解析html或者xml文档的库,是解析、遍历、维护标签树的功能库。
尽管re正则已经可以处理和提取绝大多数的文档,但是配合Beautiful Soup库可以给我们带来极大的方便。
一、Beautiful Soup库的安装
Beautiful Soup库的安装最简单是用pip安装
在cmd下输入以下命令即可进行安装。
pip install beautifulsoup4
如果遇到问题可以下载安装包手动安装。网址:
https://www.crummy.com/software/BeautifulSoup/
具体安装过程不再繁述。如有问题可百度安装教程。
安装完成后我们来检测一下:
输入以下命令不出错即安装成功。
from bs4 import BeautifulSoup
二、Beautiful Soup库的使用
1、Beautiful Soup库的引用:
Beautiful Soup库也叫beautifulsoup4或者bs4。约定引用方式如下:
from bs4 import BeautifulSoup
import bs4
可看出主要用的是BeautifulSoup类。
2、BeautifulSoup解析器
BeautifulSoup可以解析多种格式的文档.
可以被用作不同的解析器
如:
soup=BeautifulSoup('<html>data</html>','html.parser')
其中html.parser就是基于bs4的html解析。
解析器 | 使用方法 | 使用前提 |
---|---|---|
bs4的html解析器 | html.parser | 安装bs4库 |
lxml的html解析器 | lxml | pip install lxml |
lxml的xml解析器 | xml | pip install xml |
html5lib的解析器 | html5lib | pip install html5lib |
3、BeautifulSoup类的基本元素
基本元素 | 说明 |
---|---|
Tag | 标签,最基本的信息组织方式 |
Name | 标签的名字,< p >...< \p >的名字是'p',格式:< tag >.name |
Attributes | 标签的属性,字典形式组织,格式< tag >.attrs |
NavigableString | 标签内非属性字符串,<>...<>中字符串,格式< tag >.string |
Comment | 标签内字符串的注释部分,一种特殊的Comment类型 |
代码演示:
>>> from bs4 import BeautifulSoup
>>> import requests
>>> demo=requests.get('https://python123.io/ws/demo.html').text
>>> print(demo)
<html><head><title>This is a python demo page</title></head>
<body>
<p class="title"><b>The demo python introduces several python courses.</b></p>
<p class="course">Python is a wonderful general-purpose programming language. You can learn Python from novice to professional by tracking the following courses:
<a href="http://www.icourse163.org/course/BIT-268001" class="py1" id="link1">Basic Python</a> and <a href="http://www.icourse163.org/course/BIT-1001870001" class="py2" id="link2">Advanced Python</a>.</p>
</body></html>
>>> soup=BeautifulSoup(demo,'html.parser')
#获取Tag标签内容
>>> soup.title
<title>This is a python demo page</title>
>>> soup.a
<a class="py1" href="http://www.icourse163.org/course/BIT-268001" id="link1">Basic Python</a>
# 获取Tag标签名
>>> soup.a.name
'a'
>>> soup.p.name
'p'
>>> soup.a.parent.name
'p'
>>> soup.a.parent.parent.name
'body'
#获取Tag的attrs(属性),返回字典
>>> soup.a.attrs
{'href': 'http://www.icourse163.org/course/BIT-268001', 'class': ['py1'], 'id': 'link1'}
>>> soup.a.attrs['class']
['py1']
#获取Tag的NavigableString(无属性字符串)
>>> soup.a.string
'Basic Python'
#获取Tag内的注释部分
>>> newsoup=BeautifulSoup('<b><!-this is a comment--></b><p>this is content</p>','html.parser')
>>> newsoup.b.string
'this is a comment'
#comment和NavigableString的类型不同!
>>> type(newsoup.b.string)
<class 'bs4.element.Comment'>
>>> type(newsoup.p.string)
<class 'bs4.element.NavigableString'>
4、BeautifulSoup的内容遍历方法
对于文档的标签遍历可分为下行遍历、上行遍历和平行遍历。
先来了解一下怎么找到一个标签的子标签和父标签和兄弟标签
下行遍历
属性 说明 .contents 子节点的列表,将< tag >所有儿子节点存入列表 .children 子节点的迭代类型,与.contents类似,用于循环遍历儿子节点 .descendants 子孙节点的迭代类型,包含所有子孙节点,用于遍历循环
代码举例:
>>> from bs4 import BeautifulSoup
>>> import requests
>>> demo=requests.get('https://python123.io/ws/demo.html')
>>> demo
<Response [200]>
>>> demo=requests.get('https://python123.io/ws/demo.html').text
>>> print(demo)
<html><head><title>This is a python demo page</title></head>
<body>
<p class="title"><b>The demo python introduces several python courses.</b></p>
<p class="course">Python is a wonderful general-purpose programming language. You can learn Python from novice to professional by tracking the following courses:
<a href="http://www.icourse163.org/course/BIT-268001" class="py1" id="link1">Basic Python</a> and <a href="http://www.icourse163.org/course/BIT-1001870001" class="py2" id="link2">Advanced Python</a>.</p>
</body></html>
#contents返回子节点的列表
>>> print(soup.body.contents)
['\n', <p class="title"><b>The demo python introduces several python courses.</b></p>, '\n', <p class="course">Python is a wonderful general-purpose programming language. You can learn Python from novice to professional by tracking the following courses:
<a class="py1" href="http://www.icourse163.org/course/BIT-268001" id="link1">Basic Python</a> and <a class="py2" href="http://www.icourse163.org/course/BIT-1001870001" id="link2">Advanced Python</a>.</p>, '\n']
>>> len(soup.body.contents)
5
>>> print(soup.body.contents[1])
<p class="title"><b>The demo python introduces several python courses.</b></p>
一般我们标签树的下行遍历是:
for child in soup.body.children:
print(child)
for child in soup..body.descendants:
print(child)
- 上行遍历
属性 | 说明 |
---|---|
.parent | 节点的父亲标签 |
.parents | 节点先辈标签的迭代类型,用于循环遍历先辈标签 |
#父亲标签
>>> soup.title.parent
<head><title>This is a python demo page</title></head>
#遍历先辈标签
>>> for parent in soup.a.parents:
if parent is None:
print(parent)
else:
print(parent.name)
p
body
html
[document]
- 平行遍历
属性 | 说明 |
---|---|
.next_sibling | 返回按照html文本顺序的下一个平行节点标签 |
.previous_sibling | 返回按照html文本顺序的上一个平行节点标签 |
.next_siblings | 迭代类型,返回按照html文本顺序的后续所有平行节点标签 |
.previous_siblings | 迭代类型,返回按照html文本顺序的前续所有平行节点标签 |
迭代一般语法:
for sibling in soup.a.next_sibling:
print(sibling)
for sibling in soup.a.previous_sibling:
print(sibling)
具体用法同上基本类似。
5、bs库的prettify()方法
能否让html内容更加友好的显示。这里有一个可以处理html显示格式的方法
.prettify()为html文本<>及其内容增加'\n'
.prettify()可用于标签,方法:< tag >.prettify()
我们来看一下具体效果
>>> soup
<html><head><title>This is a python demo page</title></head>
<body>
<p class="title"><b>The demo python introduces several python courses.</b></p>
<p class="course">Python is a wonderful general-purpose programming language. You can learn Python from novice to professional by tracking the following courses:
<a class="py1" href="http://www.icourse163.org/course/BIT-268001" id="link1">Basic Python</a> and <a class="py2" href="http://www.icourse163.org/course/BIT-1001870001" id="link2">Advanced Python</a>.</p>
</body></html>
#
>>> soup.prettify()
'<html>\n <head>\n <title>\n This is a python demo page\n </title>\n </head>\n <body>\n <p class="title">\n <b>\n The demo python introduces several python courses.\n </b>\n </p>\n <p class="course">\n Python is a wonderful general-purpose programming language. You can learn Python from novice to professional by tracking the following courses:\n <a class="py1" href="http://www.icourse163.org/course/BIT-268001" id="link1">\n Basic Python\n </a>\n and\n <a class="py2" href="http://www.icourse163.org/course/BIT-1001870001" id="link2">\n Advanced Python\n </a>\n .\n </p>\n </body>\n</html>'
>>> print(soup.prettify())
<html>
<head>
<title>
This is a python demo page
</title>
</head>
<body>
<p class="title">
<b>
The demo python introduces several python courses.
</b>
</p>
<p class="course">
Python is a wonderful general-purpose programming language. You can learn Python from novice to professional by tracking the following courses:
<a class="py1" href="http://www.icourse163.org/course/BIT-268001" id="link1">
Basic Python
</a>
and
<a class="py2" href="http://www.icourse163.org/course/BIT-1001870001" id="link2">
Advanced Python
</a>
.
</p>
</body>
</html>
怎么样是不是好看多了。
三、基于bs4库的html内容查找方法
这里主要介绍find_all方法,该方法返回一个列表类型,存储查找的结果。
具体格式如下:
<>.find_all ( name, attrs, recursive, string, **kwargs)
- name: 对标签名称的检索字符串
- attrs:对标签属性值的检索字符串,可标注属性检索。
- recursive:是否对子孙全部检索,默认为True
- string:< >...< /> 中字符串区域的检索字符串
- **kwargs :控制参数
先上代码就很清楚明了了
#1、name 对a标签名称的检索字符串。返回列表
>>> soup.find_all('a')
[<a class="py1" href="http://www.icourse163.org/course/BIT-268001" id="link1">Basic Python</a>, <a class="py2" href="http://www.icourse163.org/course/BIT-1001870001" id="link2">Advanced Python</a>]
# 同时检索a,b标签
>>> soup.find_all(['a','b'])
[<b>The demo python introduces several python courses.</b>, <a class="py1" href="http://www.icourse163.org/course/BIT-268001" id="link1">Basic Python</a>, <a class="py2" href="http://www.icourse163.org/course/BIT-1001870001" id="link2">Advanced Python</a>]
#2、标注了属性course
>>> soup.find_all('p','course')
[<p class="course">Python is a wonderful general-purpose programming language. You can learn Python from novice to professional by tracking the following courses:
<a class="py1" href="http://www.icourse163.org/course/BIT-268001" id="link1">Basic Python</a> and <a class="py2" href="http://www.icourse163.org/course/BIT-1001870001" id="link2">Advanced Python</a>.</p>]
#3、调整recursive为False
>>> soup.find_all('a',recursive=False)
[]
#4、设置string,寻找内容为string的字符串,返回列表
>>> soup.find_all(string='Advanced Python')
['Advanced Python']
>>> import re
>>> soup.find_all(string=re.compile('python'))
['This is a python demo page', 'The demo python introduces several python courses.']
这里有一个简便一点的方法
- < tag >(...)等价于< tag >.find_all(...)
- soup()等价于soup.find_all(...)
最后总结一下除了find_all之外还有其他的扩展方法:
方法 | 说明 |
---|---|
< >.find() | 搜索只返回一个结果,同find_all()参数 |
< >.find_parents() | 在先辈节点中搜索,搜索返回一个列表,同find_all()参数 |
< >.find_parent() | 在先辈节点中搜索,搜索只返回一个结果,同find()参数 |
< >.find_next_siblings() | 在后续节点中搜索,搜索返回一个列表,同find_all()参数 |
< >.find_next_sibling() | 在后续节点中搜索,搜索返回一个结果,同find()参数 |
< >.find_precvious_siblings() | 在前序节点中搜索,搜索返回一个列表,同find_all()参数 |
< >.find_precvious_sibling() | 在前序节点中搜索,搜索返回一个结果,同find()参数 |
到这里我们就可以对大多数基本网页的爬取了。