python多线程爬取西刺代理的示例代码

作者:王瑞 时间:2021-05-27 04:32:57 

西刺代理是一个国内IP代理,由于代理倒闭了,所以我就把原来的代码放出来供大家学习吧。

镜像地址:https://www.blib.cn/url/xcdl.html

首先找到所有的tr标签,与class="odd"的标签,然后提取出来。

python多线程爬取西刺代理的示例代码

然后再依次找到tr标签里面的所有td标签,然后只提取出里面的[1,2,5,9]这四个标签的位置,其他的不提取。

python多线程爬取西刺代理的示例代码

最后可以写出提取单一页面的代码,提取后将其保存到文件中。


import sys,re,threading
import requests,lxml
from queue import Queue
import argparse
from bs4 import BeautifulSoup

head = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.100 Safari/537.36"}

if __name__ == "__main__":
 ip_list=[]
 fp = open("SpiderAddr.json","a+",encoding="utf-8")
 url = "https://www.blib.cn/url/xcdl.html"
 request = requests.get(url=url,headers=head)
 soup = BeautifulSoup(request.content,"lxml")
 data = soup.find_all(name="tr",attrs={"class": re.compile("|[^odd]")})
 for item in data:
   soup_proxy = BeautifulSoup(str(item),"lxml")
   proxy_list = soup_proxy.find_all(name="td")
   for i in [1,2,5,9]:
     ip_list.append(proxy_list[i].string)
   print("[+] 爬行列表: {} 已转存".format(ip_list))
   fp.write(str(ip_list) + '\n')
   ip_list.clear()

爬取后会将文件保存为 SpiderAddr.json 格式。

python多线程爬取西刺代理的示例代码

最后再使用另一段代码,将其转换为一个SSR代理工具直接能识别的格式,{'http': 'http://119.101.112.31:9999'}


import sys,re,threading
import requests,lxml
from queue import Queue
import argparse
from bs4 import BeautifulSoup

if __name__ == "__main__":
 result = []
 fp = open("SpiderAddr.json","r")
 data = fp.readlines()

for item in data:
   dic = {}
   read_line = eval(item.replace("\n",""))
   Protocol = read_line[2].lower()
   if Protocol == "http":
     dic[Protocol] = "http://" + read_line[0] + ":" + read_line[1]
   else:
     dic[Protocol] = "https://" + read_line[0] + ":" + read_line[1]
   result.append(dic)
   print(result)

python多线程爬取西刺代理的示例代码

完整多线程版代码如下所示。


import sys,re,threading
import requests,lxml
from queue import Queue
import argparse
from bs4 import BeautifulSoup

head = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.100 Safari/537.36"}

class AgentSpider(threading.Thread):
 def __init__(self,queue):
   threading.Thread.__init__(self)
   self._queue = queue

def run(self):
   ip_list=[]
   fp = open("SpiderAddr.json","a+",encoding="utf-8")
   while not self._queue.empty():
     url = self._queue.get()
     try:
       request = requests.get(url=url,headers=head)
       soup = BeautifulSoup(request.content,"lxml")
       data = soup.find_all(name="tr",attrs={"class": re.compile("|[^odd]")})
       for item in data:
         soup_proxy = BeautifulSoup(str(item),"lxml")
         proxy_list = soup_proxy.find_all(name="td")
         for i in [1,2,5,9]:
           ip_list.append(proxy_list[i].string)
         print("[+] 爬行列表: {} 已转存".format(ip_list))
         fp.write(str(ip_list) + '\n')
         ip_list.clear()
     except Exception:
       pass

def StartThread(count):
 queue = Queue()
 threads = []
 for item in range(1,int(count)+1):
   url = "https://www.xicidaili.com/nn/{}".format(item)
   queue.put(url)
   print("[+] 生成爬行链接 {}".format(url))

for item in range(count):
   threads.append(AgentSpider(queue))
 for t in threads:
   t.start()
 for t in threads:
   t.join()

# 转换函数
def ConversionAgentIP(FileName):
 result = []
 fp = open(FileName,"r")
 data = fp.readlines()

for item in data:
   dic = {}
   read_line = eval(item.replace("\n",""))
   Protocol = read_line[2].lower()
   if Protocol == "http":
     dic[Protocol] = "http://" + read_line[0] + ":" + read_line[1]
   else:
     dic[Protocol] = "https://" + read_line[0] + ":" + read_line[1]
   result.append(dic)
 return result

if __name__ == "__main__":
 parser = argparse.ArgumentParser()
 parser.add_argument("-p","--page",dest="page",help="指定爬行多少页")
 parser.add_argument("-f","--file",dest="file",help="将爬取到的结果转化为代理格式 SpiderAddr.json")
 args = parser.parse_args()
 if args.page:
   StartThread(int(args.page))
 elif args.file:
   dic = ConversionAgentIP(args.file)
   for item in dic:
     print(item)
 else:
   parser.print_help()

来源:https://www.cnblogs.com/LyShark/p/13850457.html

标签:python,多线程,爬虫,代理
0
投稿

猜你喜欢

  • 多语言网站开发 不完全技术分析

    2008-02-18 12:52:00
  • Golang最大递减数算法问题分析

    2023-07-16 13:49:21
  • 详解在Python中处理异常的教程

    2023-08-30 15:36:26
  • JavaScript性能优化--创建文档碎片

    2009-12-04 12:41:00
  • python3.6使用pymysql连接Mysql数据库

    2024-01-27 13:00:48
  • JS 中forEach,for in、for of用法实例总结

    2024-04-29 13:19:00
  • 用Python实现屏幕截图详解

    2022-01-30 08:00:19
  • css网页下拉菜单制作方法(3):样式修饰

    2007-02-03 11:39:00
  • Python中Scrapy+adbapi提高数据库写入效率实现

    2024-01-13 14:44:36
  • python3实现网页版raspberry pi(树莓派)小车控制

    2021-05-05 05:35:18
  • python+JS 实现逆向 SMZDM 的登录加密

    2023-09-22 05:38:55
  • 在生成的静态页面中统计点击次数

    2009-11-19 13:20:00
  • Python 页面解析Beautiful Soup库的使用方法

    2022-02-26 07:57:15
  • Div+CSS网页布局对SEO的影响漫谈

    2008-08-22 12:58:00
  • JavaScript中访问节点对象的方法有哪些如何使用

    2024-06-18 10:50:36
  • 解析SQLServer2005的Top功能

    2024-01-27 05:37:16
  • xmlhttp中运行getResponseHeader出错,提示:The requested header was not found

    2010-03-27 21:47:00
  • Python中实现输入一个整数的案例

    2022-05-28 18:42:21
  • JS设计模式之责任链模式实例详解

    2023-03-17 08:23:42
  • Python Map 函数详解

    2022-12-28 16:17:09
  • asp之家 网络编程 m.aspxhome.com