python 爬取哔哩哔哩up主信息和投稿视频

作者:cgDeepLearn 时间:2021-08-20 03:53:23 

项目地址:

https://github.com/cgDeepLearn/BilibiliCrawler

 项目特点

  1. 采取了一定的反反爬策略。

  2. Bilibili更改了用户页面的api, 用户抓取解析程序需要重构。

快速开始

  1. 拉取项目, git clone https://github.com/cgDeepLearn/BilibiliCrawler.git

  2. 进入项目主目录,安装虚拟环境crawlenv(请参考使用说明里的虚拟环境安装)。

  3. 激活环境并在主目录运行crawl,爬取结果将保存在data目录csv文件中。


ource activate crawlenv
python initial.py file  # 初始化file模式
python crawl_user.py file 1 100  # file模式,1 100是开始、结束bilibili的uid

进入data目录查看抓取的数据,是不是很简单!

如果需要使用数据库保存和一些其他的设置,请看下面的使用说明

使用说明

1.拉取项目


git clone https://github.com/cgDeepLearn/BilibiliCrawler.git

2.进入项目主目录, 安装虚拟环境

  • 若已安装anaconda


conda create -n crawlenv python=3.6
source activate crawlenv  # 激活虚拟环境
pip install -r requirements.txt
  • 若使用virtualenv


virtualenv crawlenv
source crawlenv/bin/activate  # 激活虚拟环境,windows下不用source
pip install -r requirements.txt  # 安装项目依赖

3. 修改配置文件

进入config目录,修改config.ini配置文件(默认使用的是postgresql数据库,如果你是使用的是postgresql,只需要将其中的参数替换成你的,下面其他的步骤可以忽略) 数据库配置选择其中一个你本地安装的即可,将参数更换成你的 如果你需要更自动化的数据库配置,请移步我的DB_ORM项目


[db_mysql]
user = test
password = test
host = localhost
port = 3306
dbname = testdb

[db_postgresql]
user = test
password = test
host = localhost
port = 5432
dbname = testdb

然后修改conf.py中获取配置文件的函数


def get_db_args():
   """
   获取数据库配置信息
   """
   return dict(CONFIG.items('db_postgresql'))  # 如果安装的是mysql,请将参数替换为db_mysql

进入db目录,修改basic.py的连接数据库的DSN


# connect_str = "postgresql+psycopg2://{}:{}@{}:{}/{}".format(kwargs['user'], kwargs['password'], kwargs['host'], kwargs['port'], kwargs['dbname'])
# 若使用的是mysql,请将上面的connect_str替换成下面的
connect_str = "mysql+pymysql://{}:{}@{}:{}/{}?charset=utf8".format(kwargs['user'], kwargs['password'], kwargs['host'], kwargs['port'], kwargs['dbname'])
# sqlite3,mongo等请移步我的DB_ORM项目,其他一些数据库也将添加支持

4. 运行爬虫

  • 在主目录激活虚拟环境, 初次运行请执行


python initial.py db # db模式,file模式请将db换成file
# file模式会将抓取结果保存在data目录
# db模式会将数据保存在设置好的数据库中
# 若再次以db模式运行将会drop所有表后再create,初次运行后请慎重再次使用!!!
# 如果修改添加了表,并不想清空数据,请运行 python create_all.py
  • 开始抓取示例


python crawl_user.py db 1 10000 # crawl_user 抓取用户数据,db 保存在数据库中, 1 10000为抓取起止id
python crawl_video_ajax.py db 1 100 # crawl_video_ajax 抓取视频ajax信息保存到数据库中,
python crawl_user_video.py db 1 10000 #同时抓取user 和videoinfo
# 示例为uid从1到100的user如果有投稿视频则抓取其投稿视频的信息,
# 若想通过视频id逐个抓取请运行python crawl_video_by_aid.py db 1 1000
  • 爬取速率控制

程序内已进行了一些抓取速率的设置,但各机器cpu、mem不同抓取速率也不同,请酌情修改
太快太慢请修改各crawl中的sleepsec参数,ip会被限制访问频率,overspeed会导致爬取数据不全,
之后会添加运行参数speed(high, low),不用再手动配置速率

  • 日志

爬取日志在logs目录
user, video分别为用户和视频的爬取日志
storage为数据库日志 如需更换log格式,请修改logger模块

  • 后台运行

linux下运行python ......前面加上nohup,例如:


nohup python crawl_user db 1 10000

程序输出保存文件,默认会包存在主目录额nohup.out文件中,添加 > fielname就会保存在设置的文件中:


nohup python crawl_video_ajax.py db 1 1000 > video_ajaxup_1_1000.out  # 输出将保存在video_ajaxup_1_1000.out中
  • 更多

程序多线程使用的生产者消费者模式中产生了程序运行的状况的打印信息,类似如下


produce 1_1
consumed 1_1
...

如想运行更快,请在程序各项设置好后注释掉其中的打印程序


# utils/pcModels.py
print('[+] produce %s_%s' % (index, pitem))  # 请注释掉

print('[-] consumed %s_%s\n' % (index, data))  # 请注释掉

更多

项目是单机多线程,若想使用分布式爬取,请参考Crawler-Celery

来源:https://github.com/cgDeepLearn/BilibiliCrawler

标签:python,爬虫,哔哩哔哩,视频
0
投稿

猜你喜欢

  • tensorflow学习笔记之tfrecord文件的生成与读取

    2021-05-24 13:12:43
  • asp获取完整url地址代码

    2010-03-22 14:25:00
  • fckeditor编辑器在php中的配置方法

    2023-10-14 14:26:52
  • Python获取当前时间的方法

    2022-06-11 18:24:03
  • 全面了解django的缓存机制及使用方法

    2023-07-22 09:51:58
  • 在cmd命令行里进入和退出Python程序的方法

    2023-07-18 04:21:14
  • 随Linux开机自动启动mysql

    2009-12-29 10:14:00
  • python开启摄像头以及深度学习实现目标检测方法

    2023-10-27 03:23:18
  • © 版权符号显示不清楚解决方法

    2008-02-18 14:46:00
  • Python绘图之turtle库的基础语法使用

    2023-04-09 18:39:16
  • python实现书法碑帖图片分割

    2023-09-12 16:08:02
  • 分析运行中的 Python 进程详细解析

    2021-09-19 14:47:30
  • Python操作JSON实现网络数据交换

    2023-01-27 02:21:53
  • PHP中最低级别的错误类型总结

    2023-09-04 16:46:17
  • python装饰器代替set get方法实例

    2023-01-25 15:40:37
  • Python实现SMTP发送邮件详细教程

    2021-05-10 03:01:01
  • python3实现多线程聊天室

    2021-09-11 07:35:47
  • django admin 添加自定义链接方式

    2022-09-22 05:33:14
  • asp使用jmail4.3的模块

    2010-03-17 20:58:00
  • Python使用sklearn库实现的各种分类算法简单应用小结

    2022-08-05 22:37:59
  • asp之家 网络编程 m.aspxhome.com