python scrapy框架中Request对象和Response对象的介绍

作者:码农飞哥 时间:2021-04-02 07:29:59 

一、Request对象

Request对象主要是用来请求数据,爬取一页的数据重新发送一个请求的时候调用,其源码类的位置如

下图所示:

python scrapy框架中Request对象和Response对象的介绍

这里给出其的源码,该方法有很多参数:

class Request(object_ref):

    def __init__(self, url, callback=None, method='GET', headers=None, body=None,
                 cookies=None, meta=None, encoding='utf-8', priority=0,
                 dont_filter=False, errback=None, flags=None, cb_kwargs=None):

        self._encoding = encoding  # this one has to be set first
        self.method = str(method).upper()
        self._set_url(url)
        self._set_body(body)
        if not isinstance(priority, int):
            raise TypeError(f"Request priority not an integer: {priority!r}")
        self.priority = priority

        if callback is not None and not callable(callback):
            raise TypeError(f'callback must be a callable, got {type(callback).__name__}')
        if errback is not None and not callable(errback):
            raise TypeError(f'errback must be a callable, got {type(errback).__name__}')
        self.callback = callback
        self.errback = errback

        self.cookies = cookies or {}
        self.headers = Headers(headers or {}, encoding=encoding)
        self.dont_filter = dont_filter

        self._meta = dict(meta) if meta else None
        self._cb_kwargs = dict(cb_kwargs) if cb_kwargs else None
        self.flags = [] if flags is None else list(flags)

这里对各个做一个简单的解释:

  1. url :这个request对象发送请求的url。

  2. callback: 在下载器下载相应的数据后执行的回调函数。

  3. method:请求的方法,默认为GET方法,可以设置为其他方法。

  4. headers:请求头,对于一些固定的设置,放在settings.py中指定就可以了, 对于那些非固定的,可以在发送请求的时候指定。

  5. body:请求体,传入的是请求参数。

  6. meta:比较常用。用于在不同的请求之间传递数据用。

  7. encoding:编码。默认为utf-8,使用默认的就可以了。

  8. dont_filter: 表示不由调度器过滤,在执行多次重复的请求的时候用得比较多。

  9. errback:在发生错误的是有执行的函数。

二、发送POST请求

有时候我们想要在请求数据的时候发送post请求,那么这时候需要使用Request的子类FormRequest来实现。如果想要在爬虫一开始就发送POST请求,那么需要在爬虫类中重写start_requests(self) 方法,并且不在调用 start_urls 里的url。

三、Response对象

Response对象一般是由scrapy给你自动构建的,因此开发者不需要关心如何创建Response对象。而是如何使用它。Response对象有很多属性,可以用来提取数据的。

主要有以下属性:

  1. meta: 从其他请求传过来的meta属性,可以用来保持多个请求之间的数据连接。

  2. encoding: 返回字符串编码和解码的格式。

  3. text: 将返回来的数据作为unicode字符串返回

  4. body: 将返回来的数据作为bytes 字符串返回。

  5. xpath: xpath 选择器

  6. css : css选择器。

来源:https://feige.blog.csdn.net/article/details/122751327

标签:python,scrapy框架,Request对象,Response对象
0
投稿

猜你喜欢

  • MSSQL数据库排序规则如何更改

    2023-07-01 11:09:58
  • 聊天室php&mysql(五)

    2023-11-19 20:18:22
  • 获取一个数字的个位、十位、百位的函数代码

    2011-02-20 11:06:00
  • python重试装饰器示例

    2022-07-28 10:03:12
  • Python爬虫之批量下载喜马拉雅音频

    2022-09-25 20:18:27
  • CSS nuggets CSS金矿

    2009-10-28 18:59:00
  • Python偏函数Partial function使用方法实例详解

    2023-02-07 09:47:02
  • 利用Python进行数据可视化的实例代码

    2023-11-24 10:21:45
  • python并发编程多进程 模拟抢票实现过程

    2022-03-07 11:53:05
  • Oracle7.X 回滚表空间数据文件误删除处理方法

    2010-07-28 12:54:00
  • python构建自定义回调函数详解

    2023-09-07 03:30:45
  • 手把手教你使用Python创建微信机器人

    2022-02-11 14:12:29
  • python主线程捕获子线程的方法

    2022-06-07 21:25:46
  • 什么是SVG(可升级矢量图形)

    2008-05-06 12:37:00
  • Python中的“_args”和“__kwargs”用法详解

    2023-03-11 02:10:38
  • 如何选择合适的MySQL存储引擎

    2009-02-04 13:02:00
  • Python使用random和tertools模块解一些经典概率问题

    2023-03-08 13:11:37
  • JS+ASP实现无刷新新闻列表方法

    2007-08-22 12:44:00
  • 对python中list的拷贝与numpy的array的拷贝详解

    2023-06-13 02:18:35
  • 带农历及节日的js日历源码

    2010-08-01 17:38:00
  • asp之家 网络编程 m.aspxhome.com