python爬虫实现爬取同一个网站的多页数据的实例讲解

作者:宋宋大人 时间:2021-04-11 13:52:09 

对于一个网站的图片、文字音视频等,如果我们一个个的下载,不仅浪费时间,而且很容易出错。Python爬虫帮助我们获取需要的数据,这个数据是可以快速批量的获取。本文小编带领大家通过python爬虫获取获取总页数并更改url的方法,实现爬取同一个网站的多页数据。

一、爬虫的目的

从网上获取对你有需要的数据

二、爬虫过程

1、获取url(网址)。

2、发出请求,获得响应。

3、提取数据。

4、保存数据。

三、爬虫功能

可以快速批量的获取想要的数据,不用手动的一个个下载(图片、文字音视频等)

四、使用python爬虫爬取同一网站多页数据

1、需要定位至该标签并获得总页数


def get_page_size(soup):
 pcxt=soup.find('div',{'class':'babynames-term-articles'}).find('nav')
 pcxt1=pcxt.find('div',{'class':'nav-links'}).findAll('a')
 for i in pcxt1[:-1]:
   link=i.get('href')
   s=str(i)
 page=re.sub('<a href="','',s)
 page1=re.sub(link,'',page)
 page2=re.sub('">','',page1)
 page3=re.sub('</a>','',page2)
 pagesize=int(page3)
 print(pagesize)
 return pagesize
Pass

2、更改url来访问网址,也就是进行主函数的编写


if __name__ == '__main__':
   url="http://www.sheknows.com/baby-names/browse/a/"
   soup=get_requests(url)
   page=get_page_size(soup)
   for i in range(1,page+1):
     url1=url+"page/"+str(i)+"/"
     soup1=get_requests(url1)
     draw_base_list(soup1)

实例扩展:


import requests
from lxml import etree
import re

url="https://movie.douban.com/top250"
header = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36"}

allMovieList=[]
flag = True
while flag:
 html = requests.get(url, headers=header).text
 list = etree.HTML(html)
 lis = list.xpath('//ol[@class="grid_view"]/li')
 for oneSelector in lis:
   name = oneSelector.xpath("div/div[2]/div[1]/a/span[1]/text()")[0]
   score = oneSelector.xpath("div/div[2]/div[2]/div/span[2]/text()")[0]
   people = oneSelector.xpath("div/div[2]/div[2]/div/span[4]/text()")[0]
   people = re.findall("(.*?)人评价",people)[0]
   oneMovieList = [name,score,people]
   allMovieList.append(oneMovieList)
 #获取下一页地址
 try:
   next_url = list.xpath('//span[@class="next"]/a/@href')[0]
   if next_url:
     url = "https://movie.douban.com/top250"+ next_url
 except:
   flag = False
print(allMovieList)

来源:https://www.py.cn/toutiao/23021.html

标签:python爬虫,多页数据
0
投稿

猜你喜欢

  • Ubuntu16.04安装python3.6.5步骤详解

    2023-01-01 08:06:58
  • 浅谈beego默认处理静态文件性能低下的问题

    2024-04-25 13:21:19
  • Python xlwings插入Excel图片的实现方法

    2023-11-23 05:53:18
  • 如何实现一个简易版的vuex持久化工具

    2024-04-30 10:34:29
  • SQL中distinct的用法(四种示例分析)

    2024-01-15 17:18:40
  • 用Python实现KNN分类算法

    2021-12-26 14:15:24
  • Python爬虫实现模拟点击动态页面

    2022-05-19 05:21:19
  • Golang实现http文件上传小功能的案例

    2023-07-19 00:55:37
  • Python中的测试模块unittest和doctest的使用教程

    2021-09-07 05:50:54
  • PHP的PDO大对象(LOBs)

    2023-06-07 06:45:36
  • MySQL下载安装及完美卸载的详细过程

    2024-01-17 18:39:17
  • 记录一篇关于redux-saga的基本使用过程

    2023-07-15 16:43:19
  • js清空form表单中的内容示例

    2023-08-23 16:22:02
  • Golang语言如何高效拼接字符串详解

    2023-07-11 03:46:57
  • 如何用MySQL-Front远程连接MySql?

    2010-12-03 16:02:00
  • 导航与搜索合并的可能性

    2009-09-27 12:06:00
  • 有效防止ASP木马上传运行—小知识[网络安全技术]

    2011-03-06 11:15:00
  • Python中的异常处理讲解

    2023-01-29 11:22:57
  • 从零学python系列之新版本导入httplib模块报ImportError解决方案

    2022-08-22 16:21:06
  • vue如何截取字符串

    2024-04-30 10:21:15
  • asp之家 网络编程 m.aspxhome.com