python爬虫实战之制作属于自己的一个IP代理模块

作者:il_持之以恒_li 时间:2021-12-23 21:42:20 

一、使用PyChram的正则

首先,小编讲的不是爬取ip,而是讲了解PyCharm的正则,这里讲的正则不是Python的re模块哈!
而是PyCharm的正则功能,我们在PyChram的界面上按上Ctrl+R,可以发现,这里出现两行输入框

python爬虫实战之制作属于自己的一个IP代理模块

现在如果小编想把如下数据转换成一个字典存储

python爬虫实战之制作属于自己的一个IP代理模块

读者也许会一个一去改,但是小编只需在上述的那两个输入框内,输入一串字符串即可。

python爬虫实战之制作属于自己的一个IP代理模块

只需在第一个输入框中,输入(.*) : (.*)
在第二个输入框中,输入"$1":"$2",,看看效果如何

python爬虫实战之制作属于自己的一个IP代理模块

之后再给两端分别一个花括号和取一个字典名称即可。

二、制作一个随机User-Agent模块

反爬措施中,有这样一条,就是服务器会检查请求的user-agent参数值,如果检查的结果为python,那么服务器就知道这是爬虫,为了避免被服务器发现这是爬虫,通常user-agent参数值会设置浏览器的值,但是爬取一个网址时,每次都需要查看网址network下面的内容,显得比较繁琐,为什么不自定义一个随机获取user-agent的值模块呢?这样既可以减少查看network带来的繁琐,同时还可以避免服务器发现这是同一个user-agent发起多次请求。
说了这么多,那么具体怎样实现呢?

python爬虫实战之制作属于自己的一个IP代理模块

只需调用随机模块random的方法choice()即可,这个方法里面的参数类型时列表类型,具体参考代码如下:


import random

class useragent(object):

def getUserAgent(self):
       useragents=[
           'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.212 Safari/537.36',
           'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/14.0.835.163 Safari/535.1',
           'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:6.0) Gecko/20100101 Firefox/6.0',
           'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Win64; x64; Trident/5.0; .NET CLR 2.0.50727; SLCC2; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; InfoPath.3; .NET4.0C; Tablet PC 2.0; .NET4.0E)',
           'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0)',
       ]
       return random.choice(useragents)

这样我们就可以随机得到一个user-agent的值了。

三、最终实践

3.1 爬取快代理上的ip

接下来,就是最终实践了,制作属于自己的IP代理模块。

那么,从哪里获取IP呢?小编用的是快代理这个网址,网址链接为:https://www.kuaidaili.com/free/inha/1/。

怎样提取IP呢?小编用的是xpath语法

python爬虫实战之制作属于自己的一个IP代理模块

参考代码如下:


import requests
from crawlers.userAgent import useragent  # 导入自己自定义的类,主要作用为随机取user-agent的值
from lxml import etree

url='https://www.kuaidaili.com/free/inha/1/'
headers={'user-agent':useragent().getUserAgent()}
rsp=requests.get(url=url,headers=headers)
HTML=etree.HTML(rsp.text)
infos=HTML.xpath("//table[@class='table table-bordered table-striped']/tbody/tr")
for info in infos:
   print(info.xpath('./td[1]/text()'))   # ip
   print(info.xpath('./td[2]/text()'))   # ip对应的端口 列表类型

怎样爬取多页呢?分析快代理那个网址,可以发现https://www.kuaidaili.com/free/inha/{页数}/ ,花括号里面就是页数,这个网址总页数为4038,这里小编只爬取5页,并且开始页数取(1,3000)之间的随机数,但是如果for循环这个过程,运行结果如下:

python爬虫实战之制作属于自己的一个IP代理模块

原来是请求过快的原因,只需在爬取1页之后,休眠几秒钟即可解决。

3.2 验证爬取到的ip是否可用

这里直接用百度这个网址作为测试网址,主要代码为:


url='https://www.baidu.com'
headers={'user-agent':useragent().getUserAgent()}
proxies={}   # ip ,这里只是讲一下关键代码,没有给出具体IP
rsp=requests.get(url=url,headers=headers,proxies=proxies,time=0.2)  # timeout为超时时间

只需判断rsp的状态码为200,如果是,把它添加到一个指定的列表中。

具体参考代码小编已经上传到Gitee上,链接为:ip代理模块

当然读者可用把这个文件保存到python\Lib文件夹下面,这样就可用随时随地导入了。

3.3 实战:利用爬取到的ip访问CSDN博客网址1000次

python爬虫实战之制作属于自己的一个IP代理模块
python爬虫实战之制作属于自己的一个IP代理模块
python爬虫实战之制作属于自己的一个IP代理模块

上述出现那个错误,小编上网搜索了一下原因,如下:

python爬虫实战之制作属于自己的一个IP代理模块

我想应该是第1种原因,ip被封,我这里没有设置超时时间,应该不会出现程序请求速度过快。

四、总结

上述那个ip代理模块还有很多的不足点,比如用它去访问一些网址时,不管运行多少次,输出的结果状态码不会时200,这也正常,毕竟免费的ip并不是每个都能用的。如果要说改进的话,就是多爬取几个不同ip代理网址,去重,这样的结果肯定会比上述的那个ip代理模块要好

来源:https://blog.csdn.net/qq_45404396/article/details/117264669

标签:Python,IP代理
0
投稿

猜你喜欢

  • pycharm 中mark directory as exclude的用法详解

    2021-02-27 05:24:07
  • SQL Server 2005 SSIS技巧:动态目的文件名

    2008-12-05 15:47:00
  • pycharm如何为函数插入文档注释

    2023-09-13 09:53:56
  • PyQt5每天必学之带有标签的复选框

    2021-04-30 05:27:06
  • 如何使用Python修改matplotlib.pyplot.colorbar的位置以对齐主图

    2021-09-28 18:01:30
  • python爬虫基础之简易网页搜集器

    2023-08-25 14:05:17
  • pandas DataFrame 根据多列的值做判断,生成新的列值实例

    2023-11-11 01:48:11
  • scrollWidth,clientWidth,offsetWidth的区别

    2024-04-22 22:29:00
  • Python logging简介详解

    2022-05-12 09:27:02
  • 微信小程序(十二)text组件详细介绍

    2024-04-19 09:43:53
  • 使用MySQL实现select into临时表的功能

    2024-01-25 01:14:53
  • 浅谈python中set使用

    2023-05-31 10:57:41
  • 在 Golang 中实现 Cache::remember 方法详解

    2024-04-26 17:21:08
  • 去掉运行JavaScript时IE产生的警告栏

    2008-09-11 18:07:00
  • Django框架实现的简单分页功能示例

    2022-05-16 08:25:43
  • Django restframework 源码分析之认证详解

    2021-08-15 12:03:40
  • 基于MySQL架构图解

    2024-01-15 16:25:43
  • 用Python抢火车票的简单小程序实现解析

    2023-09-06 06:31:28
  • 关于mysql left join 查询慢时间长的踩坑总结

    2024-01-23 14:20:29
  • 详解Python如何生成词云的方法

    2022-01-12 17:16:37
  • asp之家 网络编程 m.aspxhome.com