Python 爬虫模拟登陆知乎

作者:O卖女孩的小火柴O 时间:2023-11-28 14:32:08 

在之前写过一篇使用python爬虫爬取电影天堂资源的文章,重点是如何解析页面和提高爬虫的效率。由于电影天堂上的资源获取权限是所有人都一样的,所以不需要进行登录验证操作,写完那篇文章后又花了些时间研究了一下python模拟登陆,网上关于这部分的资料很多,很多demo都是登陆知乎的,原因是知乎的登陆比较简单,只需要post几个参数,保存cookie。而且还没有进行加密,很适合用来做教学。我也是是新手,一点点的摸索终于成功登陆上了知乎。就通过这篇文章分享一下学习这部分的心得,希望对那些和我一样的初学者有所帮助。

先来说一下,爬虫模拟登陆的基本原理吧,我也是刚开始接触对于一些深层次的东西也不是掌握的很清楚。首先比较重要的一个概念就是cookie,我们都知道HTTP是一种无状态的协议,也就是说当一个浏览器客户端向服务器提交一个request,服务器回应一个response后,他们之间的联系就中断了。这样就导致了这个客户端在向服务器发送请求时,服务器无法判别这两个客户端是不是一个了。这样肯定是不行的。这时cookie的作用就体现出来了。当客户端向服务器发送一个请求后,服务器会给它分配一个标识(cookie),并保存到客户端本地,当下次该客户端再次发送请求时连带着cookie一并发送给服务器,服务器一看到cookie,啊原来是你呀,这是你的东西,拿走吧。所以一个爬虫模拟登陆就是要要做到模拟一个浏览器客户端的行为,首先将你的基本登录信息发送给指定的url,服务器验证成功后会返回一个cookie,我们就利用这个cookie进行后续的爬取工作就行了。

我这里抓包用的就是chrome的开发者工具,不过你也可以使用Fiddler、Firebug等都可以,只不过作为一名前端er对chrome有一种特殊的喜爱之情。准备好工具接下来就要打开知乎的登陆页面并查看https://www.zhihu.com/#signin 我们可以很容易发现这个请求 发送的就是登录信息,当然我使用手机登陆的 用邮件登陆的是最后结尾是email

Python 爬虫模拟登陆知乎

所以我们只需要向这个地址post数据就行了

Python 爬虫模拟登陆知乎

phone_num 登录名
password 密码
captcha_type 验证码类型(这个参数着这里并没有实质作用)
rember_me 记住密码

_xsrf 一个隐藏的表单元素 知乎用来防御CSRF的(关于CSRF请打开这里) 我发现这个值是固定所以就在这里直接写死了 若果有兴趣的同学可以写一个正则表达式 把这部分的值提取出来 这样更严谨一些。


# -*- coding:utf-8 -*-
import urllib2
import urllib
import cookielib
posturl = 'https://www.zhihu.com/login/phone_num'
headers={
'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) '
'AppleWebKit/537.36 (KHTML, like Gecko) '
'Chrome/52.0.2743.116 Safari/537.36',
'Referer':'https://www.zhihu.com/'
}
value = {
'password':'*****************',
'remember_me':True,
'phone_num':'*******************',
'_xsrf':'**********************'
}
data=urllib.urlencode(value)
#初始化一个CookieJar来处理Cookie
cookieJar=cookielib.CookieJar()
cookie_support = urllib2.HTTPCookieProcessor(cookieJar)
#实例化一个全局opener
opener=urllib2.build_opener(cookie_support)
request = urllib2.Request(posturl, data, headers)
result=opener.open(request)
print result.read()

当你看到服务器返回这个信息的时候就说明你登陆成功了


{"r":0,
"msg": "\u767b\u5f55\u6210\u529f"
}#翻译过来就是 “登陆成功” 四个大字

然后你就可以用这个身份去抓取知乎上的页面了


page=opener.open("https://www.zhihu.com/people/yu-yi-56-70")
content = page.read().decode('utf-8')
print(content)

这段代码就是通过实例化一个opener对象保存成功登陆后的cookie信息,然后再通过这个opener带着这个cookie去访问服务器上关于这个身份的完整页面。更复杂的比如微博的登陆这种对请求的数据进行加密了的后面有时间再写出来,与大家分享

来源:O卖女孩的小火柴O

标签:python,登陆,知乎
0
投稿

猜你喜欢

  • laravel入门知识点整理

    2023-05-31 13:42:33
  • 使用Python写一个小游戏

    2023-07-20 17:31:07
  • 附加到SQL2012的数据库就不能再附加到低于SQL2012的数据库版本的解决方法

    2024-01-27 19:46:16
  • pycharm实现设置自动的参数注释标识

    2023-11-25 10:26:23
  • MySQL数据库入门之备份数据库操作详解

    2024-01-24 07:10:05
  • python 详解turtle画爱心代码

    2022-05-09 20:44:58
  • go语言Timer计时器的用法示例详解

    2024-04-27 15:39:38
  • pandas 把数据写入txt文件每行固定写入一定数量的值方法

    2021-06-13 20:08:14
  • Python 数据可视化超详细讲解折线图的实现

    2023-06-06 14:49:18
  • Python实现方便使用的级联进度信息实例

    2021-04-22 12:31:18
  • 如何基于js管理大文件上传及断点续传详析

    2024-05-25 15:19:05
  • 详解Python3 pandas.merge用法

    2023-07-04 20:26:48
  • 一个非常实用的php文件上传类

    2023-08-15 17:04:56
  • ubuntu 18.04 安装opencv3.4.5的教程(图解)

    2022-10-29 16:36:01
  • sp_executesql 使用复杂的Unicode 表达式错误的解决方法

    2012-01-29 17:58:52
  • python代理工具mitmproxy使用指南

    2021-06-17 14:15:31
  • mysql between实现选取介于两个值之间的数据范围

    2024-01-26 13:28:18
  • php实现统计二进制中1的个数算法示例

    2024-06-05 09:39:05
  • SQL Server表中添加新列并添加描述

    2024-01-23 08:10:17
  • Oracle19c 创建表空间遇到的坑

    2024-01-15 14:18:24
  • asp之家 网络编程 m.aspxhome.com