Python多线程结合队列下载百度音乐的方法
作者:御寒 时间:2022-12-01 11:43:18
本文实例讲述了Python多线程结合队列下载百度音乐的方法。分享给大家供大家参考。具体如下:
一直想做个下载音乐的脚本,后来决定就拿百度音乐开刀,经过多次分析,终于制作了一个下载百度音乐的脚本,目前只默认下载第一页,童鞋们可以自由拓展。
适用Windows和Linux平台、依赖BeautifulSoup这个库,主要对HTML进行解析
#!/usr/bin/python
# -*- coding: utf-8 -*-
'''
百度中批量下载某歌手的歌(目前只下载第一页,可以自行拓展)
@author:admin
@qq: 1243385033
'''
import threading, urllib2, os,re,sys
from bs4 import BeautifulSoup
from Queue import Queue
'''目标歌手'''
SINGER = u'亚东'
'''保存路径'''
SAVE_FOLDER = 'F:/music/'
# 查询url
search_url = "http://music.baidu.com/search/song?key=%s&s=1"
# 百度音乐播放盒url
song_url = "http://box.zhangmen.baidu.com/x?op=12&count=1&mtype=1&title="
class Downloader(threading.Thread):
def __init__(self, task):
threading.Thread.__init__(self)
self.task = task
def run(self):
'''覆盖父类的run方法'''
while True:
url = self.task.get()
self.download(url)
self.task.task_done()
def build_path(self, filename):
join = os.path.join
parentPath=join(SAVE_FOLDER,SINGER)
filename = filename + '.mp3'
myPath = join(parentPath, filename)
return myPath
def download(self, url):
'''下载文件'''
sub_url = url.items()
f_name = sub_url[0][0]
req_url = sub_url[0][1]
handle = urllib2.urlopen(req_url)
# 保存路径
save_path = self.build_path(f_name)
with open(save_path, "wb") as handler:
while True:
chunk = handle.read(1024)
if not chunk:
break
handler.write(chunk)
msg = u"已经从 %s下载完成" % req_url
sys.stdout.write(msg)
sys.stdout.flush()
class HttpRequest:
def __init__(self):
self.task = []
self.reg_decode = re.compile('<decode>.*?CDATA\[(.*?)\]].*?</decode>')
self.reg_encode = re.compile('<encode>.*?CDATA\[(.*?)\]].*?</encode>')
self.init()
self.target_url = search_url % urllib2.quote(self.encode2utf8(SINGER))
def encode2utf8(self,source):
if source and isinstance(source,(str,unicode)):
source=source.encode("utf8")
return source
return source
def mkDir(self, dir_name):
if not os.path.exists(dir_name):
os.mkdir(dir_name)
def init(self):
self.mkDir(SAVE_FOLDER)
subPath = os.path.join(SAVE_FOLDER, SINGER)
self.mkDir(subPath)
def http_request(self):
global song_url
'''发起请求'''
response=urllib2.urlopen(self.target_url)
# 获取头信息
content = response.read()
response.close()
# 使用BeautifulSoup
html = BeautifulSoup(content, from_encoding="utf8")
# 提取HTML标签
span_tag = html.find_all('div', {"monkey":"song-list"})[0].find_all('span', class_='song-title')
# 遍历List
for a_tag in span_tag:
song_name = unicode(a_tag.find_all("a")[0].get_text())
song_url = song_url + urllib2.quote(self.encode2utf8(song_name))
song_url = song_url + '$$' + urllib2.quote(self.encode2utf8(SINGER)) + '$$$$&url=&listenreelect=0&.r=0.1696378872729838'
xmlfile = urllib2.urlopen(song_url)
xml_content = xmlfile.read()
xmlfile.close()
url1 = re.findall(self.reg_encode, xml_content)
url2 = re.findall(self.reg_decode, xml_content)
if not url1 or not url2:
continue
url = url1[0][:url1[0].rindex('/') + 1] + url2[0]
self.task.append({song_name:url})
return self.task
def start_download(urls):
#创建一个队列
quene=Queue()
#获取list的大小
size=len(urls)
#开启线程
for _ in xrange(size):
t=Downloader(quene)
t.setDaemon(True)
t.start()
#入队列
for url in urls:
quene.put(url)
quene.join()
if __name__=='__main__':
http=HttpRequest()
urls=http.http_request()
start_download(urls)
希望本文所述对大家的Python程序设计有所帮助。
标签:Python,多线程,队列,下载
0
投稿
猜你喜欢
Debugging JavaScript:throw与console
2008-08-29 17:03:00
Python解决走迷宫问题算法示例
2023-04-18 02:14:45
浅谈python中对于json写入txt文件的编码问题
2022-01-28 05:08:58
Linux系统中为php添加pcntl扩展
2023-09-04 02:58:15
SQL Server 2008 阻止保存要求重新创建表的更改问题的设置方法
2024-01-14 13:53:03
scrapy-redis的安装部署步骤讲解
2023-03-18 11:53:41
MySQL数据库维护中监控所用到的常用命令
2024-01-28 03:23:24
深入了解javascript中的prototype与继承
2024-04-23 09:13:10
mysql 复制过滤重复如何解决
2024-01-18 17:55:54
微信小程序实现日期时间筛选器
2023-08-29 00:51:37
mysql中limit的用法深入分析
2024-01-21 17:28:17
asp如何在本地机器上创建缓存?
2010-06-18 19:27:00
详解pandas中Series()和DataFrame()的区别与联系
2023-06-24 23:05:46
Python绘制交通流折线图详情
2023-04-29 01:26:36
Python字符串常规操作小结
2023-12-02 08:33:23
详解python单元测试框架unittest
2022-05-31 23:16:58
python3爬取淘宝信息代码分析
2021-05-03 04:59:11
Python利用DNN实现宝石识别
2023-08-07 05:49:18
Python 变量类型及命名规则介绍
2022-09-17 20:21:22
python 远程统计文件代码分享
2023-04-13 17:02:08