Python3爬虫学习之爬虫利器Beautiful Soup用法分析

作者:Veniendeavor 时间:2021-04-13 07:01:50 

本文实例讲述了Python3爬虫学习之爬虫利器Beautiful Soup用法。分享给大家供大家参考,具体如下:

爬虫利器Beautiful Soup

前面一篇说到通过urllib.request模块可以将网页当作本地文件来读取,那么获得网页的html代码后,自然就是要将我们所需要的部分从杂乱的html代码中分离出来。既然要做数据的查找和提取,当然我们首先想到的应该是正则表达式的方式,而正则表达式书写的复杂我想大家都有体会,而且Python中的正则表达式和其他语言中的并没有太大区别,也就不赘述了,所以现在介绍Python中一种比较友好且易用的数据提取方式——Beautiful Soup

照例,先上官方文档
还有贴心的中文版

Beautiful Soup是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式.

文档中的例子其实说的已经比较清楚了,那下面就以爬取简书首页文章的标题一段代码来演示一下:

先来看简书首页的源代码:

Python3爬虫学习之爬虫利器Beautiful Soup用法分析

可以发现简书首页文章的标题都是在<a/>标签中,并且class='title',所以,通过


find_all('a', 'title')

便可获得所有的文章标题,具体实现代码及结果如下:


# -*- coding:utf-8 -*-
from urllib import request
from bs4 import BeautifulSoup
url = r'http://www.jianshu.com'
# 模拟真实浏览器进行访问
headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'}
page = request.Request(url, headers=headers)
page_info = request.urlopen(page).read()
page_info = page_info.decode('utf-8')
# 将获取到的内容转换成BeautifulSoup格式,并将html.parser作为解析器
soup = BeautifulSoup(page_info, 'html.parser')
# 以格式化的形式打印html
# print(soup.prettify())
titles = soup.find_all('a', 'title') # 查找所有a标签中class='title'的语句
# 打印查找到的每一个a标签的string
for title in titles:
print(title.string)

Python3爬虫学习之爬虫利器Beautiful Soup用法分析

PS:关于解析器

Beautiful Soup支持Python标准库中的HTML解析器,还支持一些第三方的解析器,下表列出了主要的解析器,以及它们的优缺点:

解析器使用方法优势劣势
Python标准库BeautifulSoup(markup, "html.parser")(1)Python的内置标准库
     (2)执行速度适中
     (3)文档容错能力强
Python 2.7.3 or 3.2.2)前 的版本中文档容错能力差
lxml HTML 解析器BeautifulSoup(markup, "lxml")(1)速度快
     (2)文档容错能力强
需要安装C语言库
lxml XML 解析器BeautifulSoup(markup, ["lxml", "xml"]) OR BeautifulSoup(markup, "xml")(1)速度快
     (2)唯一支持XML的解析器
需要安装C语言库
html5libBeautifulSoup(markup, "html5lib")(1)最好的容错性
     (2)以浏览器的方式解析文档
     (3)生成HTML5格式的文档
(1)速度慢
     (2)不依赖外部扩展

希望本文所述对大家Python程序设计有所帮助。

来源:https://www.jianshu.com/p/f7b0a39f66d0

标签:Python3,爬虫,Beautiful,Soup
0
投稿

猜你喜欢

  • Python ArcPy批量掩膜、重采样大量遥感影像的操作

    2023-12-23 14:48:55
  • 架构师说比起404我们更怕200错误

    2022-11-02 20:40:43
  • MySQL5.5.21安装配置教程(win7)

    2024-01-29 09:20:48
  • python 使用OpenCV进行曝光融合

    2022-03-13 05:23:37
  • 利用JS提交表单的几种方法和验证(必看篇)

    2023-08-17 16:43:22
  • 用Python制作一个可以聊天的皮卡丘版桌面宠物

    2021-12-05 10:44:41
  • Python通过Tesseract库实现文字识别

    2023-02-28 13:29:46
  • vue+moment实现倒计时效果

    2024-05-09 10:43:55
  • Python实现批量执行同目录下的py文件方法

    2022-01-23 21:20:39
  • Python面向对象之继承和多态用法分析

    2023-01-02 02:55:16
  • Flash的Fallback Content等

    2010-04-01 12:18:00
  • python交互式图形编程实例(三)

    2021-10-10 17:34:39
  • Flask-WTF表单的使用方法

    2022-03-07 07:34:59
  • MySQL数据库索引原理及优化策略

    2024-01-20 00:35:42
  • 当前流行的JavaScript代码风格指南

    2024-04-22 13:10:08
  • python ftp 按目录结构上传下载的实现代码

    2021-01-28 00:38:33
  • Python时间差中seconds和total_seconds的区别详解

    2022-10-04 15:00:49
  • Python编程使用NLTK进行自然语言处理详解

    2022-07-05 11:47:06
  • vue中el-table格式化el-table-column内容的三种方法

    2024-04-27 16:10:39
  • python利用sklearn包编写决策树源代码

    2022-01-06 08:14:04
  • asp之家 网络编程 m.aspxhome.com