热门问题python爬虫的效率如何提高

作者:Python 技术 时间:2023-06-11 03:21:40 

热门问题python爬虫的效率如何提高

文 | 闲欢

来源:Python 技术「ID: pythonall」

今天在浏览知乎时,发现一个有趣的问题:如何优化 Python 爬虫的速度?

他的问题描述是:

目前在写一个 Python 爬虫,单线程 urllib 感觉过于慢了,达不到数据量的要求(十万级页面)。求问有哪些可以提高爬取效率的方法?

这个问题还蛮多人关注的,但是回答的人却不多。

我今天就来尝试着回答一下这个问题。

程序提速这个问题其实解决方案就摆在那里,要么通过并发来提高单位时间内处理的工作量,要么从程序本身去找提效点,比如爬取的数据用gzip传输、提高处理数据的速度等。

我会分别从几种常见的并发方法去做同一件事情,从而比较处理效率。

简单版本爬虫

我们先来一个简单的爬虫,看看单线程处理会花费多少时间?


import time
import requests
from datetime import datetime
def fetch(url):
   r = requests.get(url)
   print(r.text)
start = datetime.now()
t1 = time.time()
for i in range(100):
   fetch('http://httpbin.org/get')
print('requests版爬虫耗时:', time.time() - t1)
# requests版爬虫耗时:54.86306357383728

我们用一个爬虫的测试网站,测试爬取100次,用时是54.86秒。

多线程版本爬虫

下面我们将上面的程序改为多线程版本:


import threading
import time
import requests
def fetch():
   r = requests.get('http://httpbin.org/get')
   print(r.text)
t1 = time.time()
t_list = []
for i in range(100):
   t = threading.Thread(target=fetch, args=())
   t_list.append(t)
   t.start()
for t in t_list:
   t.join()
print("多线程版爬虫耗时:", time.time() - t1)
# 多线程版爬虫耗时:0.8038511276245117

我们可以看到,用上多线程之后,速度提高了68倍。其实用这种方式的话,由于我们并发操作,所以跑100次跟跑一次的时间基本是一致的。这只是一个简单的例子,实际情况中我们不可能无限制地增加线程数。

多进程版本爬虫

除了多线程之外,我们还可以使用多进程来提高爬虫速度:


import requests
import time
import multiprocessing
from multiprocessing import Pool
MAX_WORKER_NUM = multiprocessing.cpu_count()
def fetch():
   r = requests.get('http://httpbin.org/get')
   print(r.text)
if __name__ == '__main__':
   t1 = time.time()
   p = Pool(MAX_WORKER_NUM)
   for i in range(100):
       p.apply_async(fetch, args=())
   p.close()
   p.join()

print('多进程爬虫耗时:', time.time() - t1)

多进程爬虫耗时: 7.9846765995025635

我们可以看到多进程处理的时间是多线程的10倍,比单线程版本快7倍。

协程版本爬虫

我们将程序改为使用 aiohttp 来实现,看看效率如何:


import aiohttp
import asyncio
import time
async def fetch(client):
   async with client.get('http://httpbin.org/get') as resp:
       assert resp.status == 200
       return await resp.text()
async def main():
   async with aiohttp.ClientSession() as client:
       html = await fetch(client)
       print(html)
loop = asyncio.get_event_loop()
tasks = []
for i in range(100):
   task = loop.create_task(main())
   tasks.append(task)
t1 = time.time()
loop.run_until_complete(main())
print("aiohttp版爬虫耗时:", time.time() - t1)
aiohttp版爬虫耗时: 0.6133313179016113

我们可以看到使用这种方式实现,比单线程版本快90倍,比多线程还快。

结论

通过上面的程序对比,我们可以看到,对于多任务爬虫来说,多线程、多进程、协程这几种方式处理效率的排序为:aiohttp > 多线程 > 多进程。因此,对于简单的爬虫任务,如果想要提高效率,可以考虑使用协程。但是同时也要注意,这里只是简单的示例,实际运用中,我们一般会用线程池、进程池、协程池去操作。

这就是问题的答案了吗?

对于一个严谨的程序员来说,当然不是,实际上还有一些优化的库,例如grequests,可以从请求上解决并发问题。实际的处理过程中,肯定还有其他的优化点,这里只是从最常见的几种并发方式去比较而已,应付简单爬虫还是可以的,其他的方式欢迎大家在评论区留言探讨。

来源:https://blog.csdn.net/weixin_48923393/article/details/120944769

标签:python,爬虫效率,热门问题
0
投稿

猜你喜欢

  • 安装Mysql5.7.10 winx64出现的几个问题汇总

    2024-01-28 13:16:04
  • IPython 8.0 Python 命令行交互工具

    2022-10-24 09:17:54
  • 一起来了解python的基本输入和输出

    2023-11-11 06:27:51
  • python简单获取本机计算机名和IP地址的方法

    2021-04-18 01:46:16
  • java.sql.SQLException: 内部错误: Unable to construct a Datum from the specified input

    2010-07-16 13:23:00
  • 使用Python生成XML的方法实例

    2022-10-01 19:20:15
  • 图片链接轮换代码, 支持预载

    2007-10-16 19:57:00
  • Oracle11.2.0.1如何升级到11.2.0.3 Oracle同版本升级

    2023-06-25 15:28:11
  • 详解基于K-means的用户画像聚类模型

    2021-11-15 20:49:52
  • python连接mysql并提交mysql事务示例

    2024-01-15 04:43:37
  • 使用Python opencv实现视频与图片的相互转换

    2022-03-04 15:20:31
  • 网页设计趋势之:”勾引”用户的按钮

    2009-02-17 12:09:00
  • python tkinter图形界面代码统计工具

    2021-01-29 15:21:39
  • 如何导出python安装的所有模块名称和版本号到文件中

    2022-07-26 15:38:59
  • 为MySQL创建高性能索引

    2024-01-19 09:22:32
  • 用background 插入flash播放器

    2020-01-16 02:15:13
  • python 如何去除字符串头尾的多余符号

    2021-12-29 03:17:36
  • 深入理解Vue的数据响应式

    2024-05-09 09:39:15
  • 教你利用python如何读取txt中的数据

    2023-04-03 14:52:36
  • 基于mysql+mycat搭建稳定高可用集群负载均衡主备复制读写分离操作

    2024-01-13 04:52:33
  • asp之家 网络编程 m.aspxhome.com