详解如何用Python写个听小说的爬虫

作者:派森酱 时间:2021-09-04 09:56:09 

在路上发现好多人都喜欢用耳机听小说,同事居然可以一整天的带着一只耳机听小说。小编表示非常的震惊。今天就用 Python 下载听小说 tingchina.com的音频。

详解如何用Python写个听小说的爬虫

书名和章节列表

随机点开一本书,这个页面可以使用 BeautifulSoup 获取书名和所有单个章节音频的列表。复制浏览器的地址,如:https://www.tingchina.com/yousheng/disp_31086.htm。

详解如何用Python写个听小说的爬虫

from?bs4?import?BeautifulSoup
import?requests
import?re
import?random
import?os

headers?=?{
????'user-agent':?'Mozilla/5.0?(Windows?NT?10.0;?Win64;?x64)?AppleWebKit/537.36?(KHTML,?like?Gecko)?Chrome/91.0.4472.114?Safari/537.36'
}

def?get_detail_urls(url):
????url_list?=?[]
????response?=?requests.get(url,?headers=headers)
????response.encoding?=?'gbk'
????soup?=?BeautifulSoup(response.text,?'lxml')
????name?=?soup.select('.red12')[0].strong.text
????if?not?os.path.exists(name):
????????os.makedirs(name)
????div_list?=?soup.select('div.list?a')
????for?item?in?div_list:
????????url_list.append({'name':?item.string,?'url':?'https://www.tingchina.com/yousheng/{}'.format(item['href'])})
????return?name,?url_list

音频地址

打开单个章节的链接,在 Elements 面板用章节名称作为搜索词,在底部发现了一个 script,这一部分就是声源的地址。

详解如何用Python写个听小说的爬虫

在 Network 面板可以看到,声源的 url 域名和章节列表的域名是不一样的。在获取下载链接的时候需要注意这一点。

详解如何用Python写个听小说的爬虫

def?get_mp3_path(url):
????response?=?requests.get(url,?headers=headers)
????response.encoding?=?'gbk'
????soup?=?BeautifulSoup(response.text,?'lxml')
????script_text?=?soup.select('script')[-1].string
????fileUrl_search?=?re.search('fileUrl=?"(.*?)";',?script_text,?re.S)
????if?fileUrl_search:
????????return?'https://t3344.tingchina.com'?+?fileUrl_search.group(1)

下载

惊喜总是突如其来,把这个 https://t3344.tingchina.com/xxxx.mp3 放入浏览器中运行居然是 404。

详解如何用Python写个听小说的爬虫

肯定是少了关键性的参数,回到上面 Network 仔细观察 mp3 的 url,发现在 url 后面带了一个 key 的关键字。如下图,这个 key 是来自于 https://img.tingchina.com/play/h5_jsonp.asp?0.5078556568562795 的返回值,可以使用正则表达式将 key 取出来。

详解如何用Python写个听小说的爬虫

def?get_key(url):
????url?=?'https://img.tingchina.com/play/h5_jsonp.asp?{}'.format(str(random.random()))
????headers['referer']?=?url
????response?=?requests.get(url,?headers=headers)
????matched?=?re.search('(key=.*?)";',?response.text,?re.S)
????if?matched:
????????temp?=?matched.group(1)
????????return?temp[len(temp)-42:]

最后的最后在 __main__ 中将以上的代码串联起来。

if?__name__?==?"__main__":
????url?=?input("请输入浏览器书页的地址:")
????dir,url_list?=?get_detail_urls()

????for?item?in?url_list:
????????audio_url?=?get_mp3_path(item['url'])
????????key?=?get_key(item['url'])
????????audio_url?=?audio_url?+?'?key='?+?key
????????headers['referer']?=?item['url']
????????r?=?requests.get(audio_url,?headers=headers,stream=True)
????????with?open(os.path.join(dir,?item['name']),'ab')?as?f:
????????????f.write(r.content)
????????????f.flush()

完整代码

from bs4 import BeautifulSoup
import requests
import re
import random
import os

headers = {
   'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36'
}

def get_detail_urls(url):
   url_list = []
   response = requests.get(url, headers=headers)
   response.encoding = 'gbk'
   soup = BeautifulSoup(response.text, 'lxml')
   name = soup.select('.red12')[0].strong.text
   if not os.path.exists(name):
       os.makedirs(name)
   div_list = soup.select('div.list a')
   for item in div_list:
       url_list.append({'name': item.string, 'url': 'https://www.tingchina.com/yousheng/{}'.format(item['href'])})
   return name, url_list

def get_mp3_path(url):
   response = requests.get(url, headers=headers)
   response.encoding = 'gbk'
   soup = BeautifulSoup(response.text, 'lxml')
   script_text = soup.select('script')[-1].string
   fileUrl_search = re.search('fileUrl= "(.*?)";', script_text, re.S)
   if fileUrl_search:
       return 'https://t3344.tingchina.com' + fileUrl_search.group(1)

def get_key(url):
   url = 'https://img.tingchina.com/play/h5_jsonp.asp?{}'.format(str(random.random()))
   headers['referer'] = url
   response = requests.get(url, headers=headers)
   matched = re.search('(key=.*?)";', response.text, re.S)
   if matched:
       temp = matched.group(1)
       return temp[len(temp)-42:]

if __name__ == "__main__":
   url = input("请输入浏览器书页的地址:")
   dir,url_list = get_detail_urls()

for item in url_list:
       audio_url = get_mp3_path(item['url'])
       key = get_key(item['url'])
       audio_url = audio_url + '?key=' + key
       headers['referer'] = item['url']
       r = requests.get(audio_url, headers=headers,stream=True)
       with open(os.path.join(dir, item['name']),'ab') as f:
           f.write(r.content)
           f.flush()

来源:https://mp.weixin.qq.com/s/JzzHwQ0G9IoenlmdEXi3hA

标签:Python,爬虫,小说
0
投稿

猜你喜欢

  • PHP正则匹配到2个字符串之间的内容方法

    2024-05-11 10:12:18
  • Python 闭包,函数分隔作用域,nonlocal声明非局部变量操作示例

    2023-07-29 00:03:51
  • Oracle数据库系统使用经验六则

    2010-07-26 13:22:00
  • 死锁问题详解

    2023-08-20 06:02:47
  • python中yield函数的用法详解

    2022-03-14 13:57:13
  • Pytorch使用shuffle打乱数据的操作

    2021-10-03 08:33:31
  • Python实现随机取一个矩阵数组的某几行

    2021-10-04 16:45:52
  • python 实时调取摄像头的示例代码

    2021-10-17 06:07:52
  • Python基础中所出现的异常报错总结

    2023-07-14 05:33:47
  • 表单系列·出错字段排行榜

    2008-07-01 12:57:00
  • 基于Tensorflow的MNIST手写数字识别分类

    2023-12-01 11:35:18
  • 如何对python的字典进行排序

    2023-01-28 10:47:31
  • 通过模版字符串及JSON数据进行目标内容整理的一个小方法

    2010-01-12 16:55:00
  • Python实现检测文件MD5值的方法示例

    2023-05-08 11:41:45
  • jupyter notebook运行命令显示[*](解决办法)

    2022-02-19 01:23:10
  • 排版自适应提升可访问性

    2009-04-08 12:47:00
  • numpy.transpose对三维数组的转置方法

    2023-10-11 07:32:36
  • django将图片上传数据库后在前端显式的方法

    2024-01-12 21:17:34
  • 详解javascript常用工具类的封装

    2024-05-11 09:36:38
  • Python实现模拟锟斤拷等各类乱码详解

    2022-08-23 04:31:22
  • asp之家 网络编程 m.aspxhome.com