一文带你掌握Python中多线程和线程池的使用方法

作者:小小鸟爱吃辣条 时间:2022-10-20 21:53:09 

Python是一种高级编程语言,它在众多编程语言中,拥有极高的人气和使用率。Python中的多线程和线程池是其强大的功能之一,可以让我们更加高效地利用CPU资源,提高程序的运行速度。本篇博客将介绍Python中多线程和线程池的使用方法,并提供一些实用的案例供读者参考。

一、多线程

多线程是指在同一进程中,有多个线程同时执行不同的任务。Python中的多线程是通过threading模块来实现的。下面是一个简单的多线程示例:

import threading

def task(num):
   print('Task %d is running.' % num)

if __name__ == '__main__':
   for i in range(5):
       t = threading.Thread(target=task, args=(i,))
       t.start()

上述代码中,我们定义了一个task函数,它接受一个参数num,用于标识任务。在主程序中,我们创建了5个线程,每个线程都执行task函数,并传入不同的参数。通过start()方法启动线程。运行上述代码,可以看到输出结果类似于下面这样:

Task 0 is running.
Task 1 is running.
Task 2 is running.
Task 3 is running.
Task 4 is running.

由于多线程是并发执行的,因此输出结果的顺序可能会有所不同。

二、线程池

线程池是一种管理多线程的机制,它可以预先创建一定数量的线程,并将任务分配给这些线程执行。Python中的线程池是通过ThreadPoolExecutor类来实现的。下面是一个简单的线程池示例:

import concurrent.futures

def task(num):
   print('Task %d is running.' % num)

if __name__ == '__main__':
   with concurrent.futures.ThreadPoolExecutor(max_workers=3) as executor:
       for i in range(5):
           executor.submit(task, i)

上述代码中,我们使用了with语句创建了一个ThreadPoolExecutor对象,其中max_workers参数指定了线程池中最大的线程数量。在主程序中,我们创建了5个任务,每个任务都通过executor.submit()方法提交给线程池执行。运行上述代码,可以看到输出结果类似于下面这样:

Task 0 is running.
Task 1 is running.
Task 2 is running.
Task 3 is running.
Task 4 is running.

由于线程池中最大的线程数量为3,因此只有3个任务可以同时执行,其他任务需要等待线程池中的线程空闲后再执行。

三、使用案例

下面是一个实际的案例,展示了如何使用多线程和线程池来加速数据处理过程。假设我们有一个包含1000个元素的列表,需要对每个元素进行某种运算,并将结果保存到另一个列表中。我们可以使用单线程的方式来实现:

def process(data):
   result = []
   for item in data:
       result.append(item * 2)
   return result

if __name__ == '__main__':
   data = list(range(1000))
   result = process(data)
   print(result)

上述代码中,我们定义了一个process函数,它接受一个列表作为参数,对列表中的每个元素进行运算,并将结果保存到另一个列表中。在主程序中,我们创建了一个包含1000个元素的列表,并将其传递给process函数。运行上述代码,可以看到输出结果类似于下面这样:

[0, 2, 4, 6, 8, ..., 1996, 1998]

Python中的多线程和线程池可以提高爬虫的效率,本文将介绍一个爬取豆瓣电影Top250的案例,并通过多线程和线程池优化爬取过程。

1.单线程爬取

首先,我们先来看一下单线程爬取的代码:

# -*- coding: utf-8 -*-
import requests
from bs4 import BeautifulSoup

def get_html(url):
   try:
       response = requests.get(url)
       if response.status_code == 200:
           return response.text
       else:
           return None
   except Exception as e:
       print(e)

def parse_html(html):
   soup = BeautifulSoup(html, 'lxml')
   movie_list = soup.find(class_='grid_view').find_all('li')

for movie in movie_list:
       title = movie.find(class_='title').string
       rating = movie.find(class_='rating_num').string
       print(title, rating)

def main():
   url = 'https://movie.douban.com/top250'
   html = get_html(url)
   parse_html(html)

if __name__ == '__main__':
   main()

这是一个简单的爬取豆瓣电影Top250的代码,首先通过requests库获取网页的HTML代码,然后使用BeautifulSoup库解析HTML代码,获取电影名称和评分。

但是,这种单线程爬取的方式效率较低,因为在获取HTML代码的时候需要等待响应,而在等待响应的过程中CPU会空闲,无法充分利用计算机的性能。

2.多线程爬取

接下来,我们通过多线程的方式来优化爬取过程。首先,我们需要导入Python中的threading库:

import threading

然后,我们将获取HTML代码的代码放在一个函数中,并将其作为一个线程来运行:

def get_html(url):
   try:
       response = requests.get(url)
       if response.status_code == 200:
           return response.text
       else:
           return None
   except Exception as e:
       print(e)

class GetHtmlThread(threading.Thread):
   def __init__(self, url):
       threading.Thread.__init__(self)
       self.url = url

def run(self):
       html = get_html(self.url)
       parse_html(html)

在上面的代码中,我们首先定义了一个GetHtmlThread类,继承自threading.Thread类,然后在类的构造函数中传入需要爬取的URL。在run方法中,我们调用get_html函数获取HTML代码,并将其传入parse_html函数中进行解析。

接下来,我们通过循环创建多个线程来进行爬取:

def main():
   urls = ['https://movie.douban.com/top250?start={}'.format(i) for i in range(0, 250, 25)]
   threads = []

for url in urls:
       thread = GetHtmlThread(url)
       thread.start()
       threads.append(thread)

for thread in threads:
       thread.join()

在上面的代码中,我们首先定义了一个urls列表,包含了所有需要爬取的URL。然后通过循环创建多个GetHtmlThread线程,并将其加入到threads列表中。最后,通过循环调用join方法等待所有线程执行完毕。

通过多线程的方式,我们可以充分利用计算机的性能,提高爬取效率。

3.线程池爬取

在多线程的方式中,我们需要手动创建和管理线程,这样会增加代码的复杂度。因此,我们可以使用Python中的线程池来进行优化。

首先,我们需要导入Python中的concurrent.futures库:

import concurrent.futures

然后,我们将获取HTML代码的代码放在一个函数中,并将其作为一个任务来提交给线程池:

def get_html(url):
   try:
       response = requests.get(url)
       if response.status_code == 200:
           return response.text
       else:
           return None
   except Exception as e:
       print(e)

def parse_html(html):
   soup = BeautifulSoup(html, 'lxml')
   movie_list = soup.find(class_='grid_view').find_all('li')

for movie in movie_list:
       title = movie.find(class_='title').string
       rating = movie.find(class_='rating_num').string
       print(title, rating)

def main():
   urls = ['https://movie.douban.com/top250?start={}'.format(i) for i in range(0, 250, 25)]
   with concurrent.futures.ThreadPoolExecutor(max_workers=5) as executor:
       futures = [executor.submit(get_html, url) for url in urls]

for future in concurrent.futures.as_completed(futures):
       html = future.result()
       parse_html(html)

在上面的代码中,我们首先定义了一个urls列表,包含了所有需要爬取的URL。然后通过with语句创建一个线程池,并设置最大线程数为5。接下来,我们通过循环将每个URL提交给线程池,并将返回的Future对象加入到futures列表中。最后,通过concurrent.futures.as_completed函数来等待所有任务执行完毕,并获取返回值进行解析。

通过线程池的方式,我们可以更加简洁地实现多线程爬取,并且可以更加灵活地控制线程的数量,避免线程过多导致系统负载过高的问题。

来源:https://juejin.cn/post/7221966100807303229

标签:Python,多线程,线程池
0
投稿

猜你喜欢

  • 基于AJAX技术提高搜索引擎排名

    2008-01-24 12:45:00
  • 基本的页面设计元素布局比例

    2007-12-15 09:43:00
  • accept-charset与Header P3P

    2009-04-01 18:43:00
  • 我们用什么来衡量设计3:定量研究的风险

    2009-07-19 14:14:00
  • 解决Jupyter Notebook开始菜单栏Anaconda下消失的问题

    2021-04-09 18:33:05
  • Pandas时间数据处理详细教程

    2022-04-29 03:14:22
  • 瞬间的设计 I

    2009-12-25 18:54:00
  • python路径的写法及目录的获取方式

    2023-10-22 09:26:57
  • 使用 Python 破解压缩文件的密码的思路详解

    2021-09-29 22:36:48
  • 用书的概念理解小网站结构

    2007-10-31 18:08:00
  • Python随机生成数据后插入到PostgreSQL

    2023-05-14 19:58:09
  • 基于Python+Appium实现京东双十一自动领金币功能

    2022-10-15 19:21:04
  • 小白讲座:在win下mysql备份恢复命令概括

    2009-09-05 09:43:00
  • oracle 触发器 实现出入库

    2009-07-23 14:56:00
  • Python函数和模块的使用详情

    2023-10-11 13:51:20
  • ASP初学者学习ASP指令

    2008-10-14 17:27:00
  • mysql查询一天,查询一周,查询一个月的数据

    2011-01-29 16:22:00
  • python遍历迭代器自动链式处理数据的实例代码

    2022-04-12 18:38:29
  • Python学习小技巧之利用字典的默认行为

    2021-10-10 23:48:29
  • js检测浏览器语种,适合于多语言版本的站点

    2007-09-12 19:16:00
  • asp之家 网络编程 m.aspxhome.com