Python爬虫爬取煎蛋网图片代码实例

作者:Leslie_Chan 时间:2023-08-17 07:10:38 

这篇文章主要介绍了Python爬虫爬取煎蛋网图片代码实例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下

今天,试着爬取了煎蛋网的图片。

用到的包:

  • urllib.request

  • os

分别使用几个函数,来控制下载的图片的页数,获取图片的网页,获取网页页数以及保存图片到本地。过程简单清晰明了

直接上源代码:


import urllib.request
import os

def url_open(url):
 req = urllib.request.Request(url)
 req.add_header('user-agent','Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36')
 response = urllib.request.urlopen(url)
 html = response.read()

return html

def get_page(url):
 html = url_open(url).decode('utf-8')

a = html.find('current-comment-page')+23
 b = html.find(']',a)

return html[a:b]

def find_imgs(url):
 html = url_open(url).decode('utf-8')
 img_addrs = []

a = html.find('img src=')

while a != -1:
   b = html.find('.jpg',a ,a+255)
   if b != -1:
     img_addrs.append('https:'+html[a+9:b+4]) # 'img src='为9个偏移 '.jpg'为4个偏移
   else:
     b = a+9
   a = html.find('img src=', b)

return img_addrs

def save_imgs(folder, img_addrs):
 for each in img_addrs:
   filename = each.split('/')[-1]
   with open(filename, 'wb') as f:
     img = url_open(each)
     f.write(img)
   print(img_addrs)

def download_mm(folder = 'xxoo', pages = 5):
 os.mkdir(folder)
 os.chdir(folder)

url = 'http://jandan.net/ooxx/'
 page_num = int(get_page(url))

for i in range(pages):
   page_num -= i
   page_url = url + 'page-'+ str(page_num) + '#comments'
   img_addrs = find_imgs(page_url)
   save_imgs(folder, img_addrs)

if __name__ == '__main__':
 download_mm()

其中在主函数download_mm()中,将pages设置在了5面。

本来设置的是10,但是在程序执行的过程中。出现了404ERROR错误

即imgae_url出现了错误。尝试着在save_img()函数中加入了测试代码:print(img_addrs),

Python爬虫爬取煎蛋网图片代码实例

想到会不会是因为后面页数的图片,img_url的格式出现了改变,导致404,所以将pages改成5,

再次运行,结果没有问题,图片能正常下载:

Python爬虫爬取煎蛋网图片代码实例

仔细观察发现,刚好是在第五面的图片往后,出现了不可下载的问题(404)。所以在煎蛋网上,我们直接跳到第6面查看图片的url。

Python爬虫爬取煎蛋网图片代码实例

上图是后5面的图片url,下图是前5面的图片url

Python爬虫爬取煎蛋网图片代码实例

而源代码中,寻找的图片url为使用find()函数,进行定为<img src=‘'> <.jpg>中的图片url,所以后5面出现的a href无法匹配,即出现了404 ERROR。如果想要下载后续的图片,需要重新添加一个url定位

即在find中将 img src改成 a href,偏移量也需要更改。

总结:

使用find()来定位网页标签确实太过low,所以以后在爬虫中要尽量使用正则表达式和Beautifulsoup包来提高效率,而这两项我还不是特别熟,所以需要更多的训练。

来源:https://www.cnblogs.com/lesliechan/p/11494811.html

标签:Python,爬虫,爬取,煎蛋网,图片
0
投稿

猜你喜欢

  • SQL中 patindex函数的用法详解

    2024-01-23 14:55:39
  • php使用pack处理二进制文件的方法

    2023-11-21 04:26:11
  • 详解vue过度效果与动画transition使用示例

    2023-07-02 16:45:03
  • 对Python3中的print函数以及与python2的对比分析

    2021-09-12 08:29:35
  • Python 爬虫之Beautiful Soup模块使用指南

    2021-10-16 13:28:03
  • Python 日志管理模块Loguru的用法小结

    2023-02-22 15:45:16
  • 一些sql语句

    2009-04-10 18:36:00
  • 基于wxpython开发的简单gui计算器实例

    2023-09-09 04:42:25
  • python控制windows剪贴板,向剪贴板中写入图片的实例

    2021-03-27 07:35:31
  • keras中模型训练class_weight,sample_weight区别说明

    2021-09-17 06:23:18
  • SQL Server数据库服务器高性能设置

    2010-11-25 16:00:00
  • 使用 Python 处理3万多条数据只要几秒钟

    2023-08-03 15:21:06
  • ES6中的Promise代码详解

    2024-04-18 09:44:19
  • Python编程中的异常处理教程

    2022-10-16 04:26:23
  • 取巧的边框等高

    2009-12-16 12:11:00
  • Python arrow 更好的日期时间模块

    2022-02-08 14:06:15
  • Python进阶之如何快速将变量插入有序数组

    2021-07-26 16:52:51
  • 不拘小节的中文字体设计

    2009-05-21 10:44:00
  • Python 微信公众号文章爬取的示例代码

    2021-11-06 22:39:20
  • JS将数字转换成三位逗号分隔的样式(示例代码)

    2024-05-02 16:26:59
  • asp之家 网络编程 m.aspxhome.com