python网络爬虫基于selenium爬取斗鱼直播信息

作者:馆主阿牛 时间:2023-03-05 09:33:19 

一、本文使用的第三方包和工具

python 3.8  

谷歌浏览器

selenium(3.141.0)(pip install selenium == 3.141.0)注意4.0系列和3.0系列方法不同

浏览器驱动(和你的浏览器版本对应)

二、selenium的介绍和浏览器驱动的安装

1.selenium的介绍

    selenium是一款web自动化测试工具,可以很方便地模拟真实用户对浏览器进行操作,它支持各种主流浏览器:IE、Chrome、Firefox、Safari、Opera等。你可以使用selenium做web测试或者爬虫,自动抢票、自动下单也可以用selenium来做。

2.浏览器驱动的安装

   网上方法很多,友友们自行搜索,在这里提一点注意事项:本文用的是谷歌浏览器,浏览器驱动要对应谷歌的哦,注意浏览器驱动与你的浏览器版本相对应,这里给出谷歌浏览器驱动的下载地址,友友们按照自己浏览器的版本对应现在即可

http://chromedriver.storage.googleapis.com/index.html

下载完成后注意配置环境变量哦,不配置也行,不配置就要在代码中写上你的Chromedriver.exe文件的路径或者不写路径将你的Chromedriver.exe和py文件放到同一目录下也可以哦

三、代码思路分析

进入斗鱼官网,点到直播,下面的在线直播信息就是我们需要爬取的

可以看到有标题,类型,姓名,以及热度,我们爬取这四个字段就行

然后滑到底部,这里的下一页是我们控制爬取页数的

 注意:当我们进入页面时,虽然有滚动条,但所有直播信息已经加载好,并不是通过滑动然后Ajax加载的,所以在代码中并不需要写滑动,直接提取就可以拿到整个页面的数据。

1.解析数据的函数

#解析数据的函数
   def parse(self):
       #强制等待两秒,等待页面数据加载完毕
       sleep(2)
       li_list = self.bro.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li')
       #print(len(li_list))
       data_list = []
       for li in li_list:
           dic_data = {}
           dic_data['title'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/h3').text
           dic_data['name'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/h2/div').text
           dic_data['art_type'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/span').text
           dic_data['hot'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/span').text
           data_list.append(dic_data)
       return data_list

2.保存数据的函数

#解析数据的函数
   def parse(self):
       #强制等待两秒,等待页面数据加载完毕
       sleep(2)
       li_list = self.bro.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li')
       #print(len(li_list))
       data_list = []
       for li in li_list:
           dic_data = {}
           dic_data['title'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/h3').text
           dic_data['name'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/h2/div').text
           dic_data['art_type'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/span').text
           dic_data['hot'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/span').text
           data_list.append(dic_data)
       return data_list

(1)保存为txt文本

#保存数据的函数
   def save_data(self,data_list,i):
       #在当前目录下将数据存为txt文件
       with open('./douyu.txt','w',encoding='utf-8') as fp:
           for data in data_list:
               data = str(data)
               fp.write(data+'\n')
           print("第%d页保存完成!" % i)

(2)保存为json文件

#保存数据的函数
   def save_data(self,data_list,i):
       with open('./douyu.json','w',encoding='utf-8') as fp:
            #里面有中文,所以注意ensure_ascii=False
            data = json.dumps(data_list,ensure_ascii=False)
            fp.write(data)
            print("第%d页保存完成!" % i)

3.主函数设计

#主函数
   def run(self):
       #输入要爬取的页数,如果输入负整数,转化成她的绝对值
       page_num = abs(int(input("请输入你要爬取的页数:")))
       #初始化页数为1
       i = 1
       #判断输入的数是否为整数
       if isinstance(page_num,int):
           #实例化浏览器对象
           self.bro = webdriver.Chrome(executable_path='../../可执行文件/chromedriver.exe')
           # chromedriver.exe如果已添加到环境变量,可省略executable_path='../../可执行文件/chromedriver.exe'
           self.bro.get(self.url)
           while i <= page_num:
               #调用解析函数
               data_list = self.parse()
               #调用保存函数
               self.save_data(data_list,i)
               try:
                   #定位包含“下一页”字段的按钮并点击
                   button = self.bro.find_element_by_xpath('//span[contains(text(),"下一页")]')
                   button.click()
                   i += 1
               except:
                   break
           self.bro.quit()
       else:
           print("输入格式错误!")

四、完整代码

from selenium import webdriver
from time import sleep
import json
#创建一个类
class Douyu():
   def __init__(self):
       self.url = 'https://www.douyu.com/directory/all'
   #解析数据的函数
   def parse(self):
       #强制等待两秒,等待页面数据加载完毕
       sleep(2)
       li_list = self.bro.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li')
       #print(len(li_list))
       data_list = []
       for li in li_list:
           dic_data = {}
           dic_data['title'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/h3').text
           dic_data['name'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/h2/div').text
           dic_data['art_type'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/span').text
           dic_data['hot'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/span').text
           data_list.append(dic_data)
       return data_list
   #保存数据的函数
   def save_data(self,data_list,i):
       #在当前目录下将数据存为txt文件
       with open('./douyu.txt','w',encoding='utf-8') as fp:
           for data in data_list:
               data = str(data)
               fp.write(data+'\n')
           print("第%d页保存完成!" % i)
       # json文件的存法
       # with open('./douyu.json','w',encoding='utf-8') as fp:
       # 里面有中文,所以注意ensure_ascii=False
       #     data = json.dumps(data_list,ensure_ascii=False)
       #     fp.write(data)
       #     print("第%d页保存完成!" % i)
   #主函数
   def run(self):
       #输入要爬取的页数,如果输入负整数,转化成她的绝对值
       page_num = abs(int(input("请输入你要爬取的页数:")))
       #初始化页数为1
       i = 1
       #判断输入的数是否为整数
       if isinstance(page_num,int):
           #实例化浏览器对象
           self.bro = webdriver.Chrome(executable_path='../../可执行文件/chromedriver.exe')
           # chromedriver.exe如果已添加到环境变量,可省略executable_path='../../可执行文件/chromedriver.exe'

self.bro.get(self.url)
           while i <= page_num:
               #调用解析函数
               data_list = self.parse()
               #调用保存函数
               self.save_data(data_list,i)
               try:
                   #定位包含“下一页”字段的按钮并点击
                   button = self.bro.find_element_by_xpath('//span[contains(text(),"下一页")]')
                   button.click()
                   i += 1
               except:
                   break
           self.bro.quit()
       else:
           print("输入格式错误!")
if __name__ == '__main__':
   douyu = Douyu()
   douyu.run()

来源:https://blog.csdn.net/qq_57421630/article/details/122510369

标签:python,网络爬虫,selenium,直播信息
0
投稿

猜你喜欢

  • Python实现串口通信(pyserial)过程解析

    2021-10-11 01:49:14
  • php动态生成版权所有信息的方法

    2024-05-02 17:17:30
  • 详解MySQL中存储函数创建与触发器设置

    2024-01-17 22:58:31
  • firefox 2正则表达式

    2008-08-25 19:15:00
  • InnoDB引擎数据库主从复制同步新的分享

    2024-01-15 10:33:32
  • python包合集shutil示例代码详解

    2022-03-28 12:04:27
  • 如何修改Linux的下MySQL 5.0的默认连接数

    2012-01-29 18:07:04
  • Python中ROS和OpenCV结合处理图像问题

    2023-04-27 00:33:02
  • Pyhon Flask框架:第一个Flask程序

    2023-01-09 16:06:34
  • [翻译]标记语言和样式手册 Chapter 13 为文字指定样式

    2008-02-15 16:08:00
  • Python定时任务APScheduler原理及实例解析

    2021-04-01 01:07:09
  • mysql巡检脚本(必看篇)

    2024-01-22 07:24:54
  • Python全栈之线程详解

    2021-05-21 17:44:21
  • 详解python 支持向量机(SVM)算法

    2022-03-06 02:11:24
  • 在Python编程过程中用单元测试法调试代码的介绍

    2023-12-10 02:16:46
  • Mysql误操作后利用binlog2sql快速回滚的方法详解

    2024-01-23 19:00:31
  • Go语言中反射的正确使用

    2024-02-01 16:31:57
  • php函数连续调用实例分析

    2024-03-17 06:48:38
  • 抓包工具Fiddler的使用方法详解(Fiddler中文教程)

    2022-09-21 03:34:55
  • PHP的Socket网络编程入门指引

    2023-11-18 15:46:12
  • asp之家 网络编程 m.aspxhome.com