python 爬取壁纸网站的示例

作者:明 总 有 时间:2022-07-10 13:29:54 

本次爬虫用到的网址是:

http://www.netbian.com/index.htm: 彼岸桌面.里面有很多的好看壁纸,而且都是可以下载高清无损的,还比较不错,所以我就拿这个网站练练手。

作为一个初学者,刚开始的时候,无论的代码的质量如何,总之代码只要能够被正确完整的运行那就很能够让自己开心的,如同我们的游戏一样,能在短时间内得到正向的反馈,我们就会更有兴趣去玩。

学习也是如此,只要我们能够在短期内得到学习带来的反馈,那么我们的对于学习的欲望也是强烈的。

作为一个菜鸡,能够完整的完整此次爬虫程序的编写,那便是一个最大的收货,但其实我在此次过程中的收获远不止此。

好的代码其实应该具有以下特性

  1. 能够满足最关键的需求

  2. 容易理解

  3. 有充分的注释

  4. 使用规范的命名

  5. 没有明显的安全问题

  6. 经过充分的测试

就以充分的测试为例,经常写代码的就应该知道,尽管多数时候你的代码没有BUG,但那仅仅说明只是大多数情况下是稳定的,但是在某些条件下就会出错(达到出错条件,存在逻辑问题的时候等)。这是肯定的。至于什么原因,不同的代码有不同的原因。如果代码程序都是一次就能完善的,那么我们使用的软件的软件就不会经常更新了。其他其中的道理就不一 一道说了,
久而自知

好的代码一般具有的5大特性

1.便于维护
2.可复用
3.可扩展
4.强灵活性
5.健壮性

经过我的代码运行我发现时间复杂度比较大,因此这是我将要改进的地方,但也不止于此。也有很多利用得不合理的地方,至于存在的不足的地方就待我慢慢提升改进吧!

路过的大佬欢迎留下您宝贵的代码修改意见,

完整代码如下


import os
import bs4
import re
import time
import requests
from bs4 import BeautifulSoup

def getHTMLText(url, headers):
 """向目标服务器发起请求并返回响应"""
 try:
   r = requests.get(url=url, headers=headers)
   r.encoding = r.apparent_encoding
   soup = BeautifulSoup(r.text, "html.parser")
   return soup
 except:
   return ""

def CreateFolder():
 """创建存储数据文件夹"""
 flag = True
 while flag == 1:
   file = input("请输入保存数据文件夹的名称:")
   if not os.path.exists(file):
     os.mkdir(file)
     flag = False
   else:
     print('该文件已存在,请重新输入')
     flag = True

# os.path.abspath(file) 获取文件夹的绝对路径
 path = os.path.abspath(file) + "\\"
 return path

def fillUnivList(ulist, soup):
 """获取每一张图片的原图页面"""
 # [0]使得获得的ul是 <class 'bs4.BeautifulSoup'> 类型
 div = soup.find_all('div', 'list')[0]
 for a in div('a'):
   if isinstance(a, bs4.element.Tag):
     hr = a.attrs['href']
     href = re.findall(r'/desk/[1-9]\d{4}.htm', hr)
     if bool(href) == True:
       ulist.append(href[0])

return ulist

def DownloadPicture(left_url,list,path):
 for right in list:
   url = left_url + right
   r = requests.get(url=url, timeout=10)
   r.encoding = r.apparent_encoding
   soup = BeautifulSoup(r.text,"html.parser")
   tag = soup.find_all("p")
   # 获取img标签的alt属性,给保存图片命名
   name = tag[0].a.img.attrs['alt']
   img_name = name + ".jpg"
   # 获取图片的信息
   img_src = tag[0].a.img.attrs['src']
   try:
     img_data = requests.get(url=img_src)
   except:
     continue

img_path = path + img_name
   with open(img_path,'wb') as fp:
     fp.write(img_data.content)
   print(img_name, "  ******下载完成!")

def PageNumurl(urls):
 num = int(input("请输入爬取所到的页码数:"))
 for i in range(2,num+1):
   u = "http://www.netbian.com/index_" + str(i) + ".htm"
   urls.append(u)

return urls

if __name__ == "__main__":
 uinfo = []
 left_url = "http://www.netbian.com"
 urls = ["http://www.netbian.com/index.htm"]
 headers = {
   "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36"
 }
 start = time.time()
 # 1.创建保存数据的文件夹
 path = CreateFolder()
 # 2. 确定要爬取的页面数并返回每一页的链接
 PageNumurl(urls)
 n = int(input("访问的起始页面:"))
 for i in urls[n-1:]:
   # 3.获取每一个页面的首页数据文本
   soup = getHTMLText(i, headers)
   # 4.访问原图所在页链接并返回图片的链接
   page_list = fillUnivList(uinfo, soup)
   # 5.下载原图
   DownloadPicture(left_url, page_list, path)

print("全部下载完成!", "共" + str(len(os.listdir(path))) + "张图片")
 end = time.time()
 print("共耗时" + str(end-start) + "秒")

运行

python 爬取壁纸网站的示例

部分展示结果如下:

python 爬取壁纸网站的示例

来源:https://blog.csdn.net/qq_45720042/article/details/115312318

标签:python,爬取,网站,壁纸
0
投稿

猜你喜欢

  • Python+Pygame实现神庙逃亡游戏

    2022-06-12 16:26:28
  • javascript面向对象编程(四)

    2008-03-07 14:20:00
  • ASP网站数据采集经验谈

    2008-03-09 15:30:00
  • Flash在web客户端的潜在问题

    2009-05-20 12:11:00
  • 高效优化博客的用户阅读体验

    2009-06-16 18:09:00
  • SQLSERVER查询所有数据库名,表名,和字段名的语句

    2012-01-29 18:07:44
  • Python中文件的写入读取以及附加文字方法

    2021-03-03 12:05:15
  • 解决golang编译提示dial tcp 172.217.160.113:443: connectex: A connection attempt failed(推荐)

    2023-07-16 04:24:49
  • sql处理数据库锁的存储过程分享

    2023-07-05 18:03:25
  • 使用JS+XML(数据岛)实现分页)

    2005-08-18 00:46:06
  • javascript this 关键字小提示

    2009-02-03 13:22:00
  • Python常见异常的处理方式浅析

    2022-05-14 17:32:37
  • Yahoo!网站性能最佳体验的34条黄金守则——图片、Coockie与移动应用

    2008-05-29 13:44:00
  • python通过imaplib模块读取gmail里邮件的方法

    2023-11-03 04:24:42
  • 如何表示python中的相对路径

    2022-09-06 14:13:41
  • 使用AJAX和Django获取数据的方法实例

    2021-11-14 20:40:20
  • python利用opencv实现SIFT特征提取与匹配

    2021-07-22 19:08:46
  • flask开启多线程的具体方法

    2023-03-10 06:30:50
  • ASP技巧:禁用清除页面缓存的五种方法

    2009-07-21 12:33:00
  • PHP扩展Swoole实现实时异步任务队列示例

    2023-11-10 05:11:22
  • asp之家 网络编程 m.aspxhome.com