吾爱破解 - 52pojie.cn

 找回密码
 注册[Register]

QQ登录

只需一步,快速开始

查看: 4496|回复: 4
收起左侧

[Python 转载] 爬虫之酷狗音乐TOP500歌曲信息

[复制链接]
PAOLO 发表于 2019-3-18 21:41
本帖最后由 PAOLO 于 2019-3-18 21:49 编辑

爬酷狗音乐TOP500歌曲信息!


[Python] 纯文本查看 复制代码
#导入需要的模块
import requests
from bs4 import BeautifulSoup
import time
#伪装浏览器
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3641.400 QQBrowser/10.4.3284.400'
}#加入请求头

#获取网页信息
def get_info(url):
    wb_data = requests.get(url,headers = headers)#定义获取信息的函数
    soup = BeautifulSoup(wb_data.text,'lxml')
    ranks = soup.select('span.pc_temp_num')
    titles = soup.select('div.pc_temp_songlist > ul > li > a')
    times = soup.select('span.pc_temp_tips_r > span')
    for rank,title,time in zip(ranks,titles,times):
        data ={
            '排名':rank.get_text().strip(),
            '歌手':title.get_text().split('-')[0],
            '歌曲':title.get_text().split('-')[1],#通过split获取歌手和歌曲信息
            '时间':time.get_text().strip(),

        }
        print(data)#获取爬虫信息并按字典格式打印
#
if __name__ == '__main__':#程序主入口
    urls = ['http://www.kugou.com/yy/rank/home/{}-8888.html'.format(str(i)) for i in range(1,24)]#构造多页URL
    for url in urls:
        get_info(url)#循环调用get_info()函数
        time.sleep(1)#暂停1秒

免费评分

参与人数 2吾爱币 +2 热心值 +2 收起 理由
chxchxkkk + 1 + 1 热心回复!
MiniDP + 1 + 1 感谢大佬

查看全部评分

发帖前要善用论坛搜索功能,那里可能会有你要找的答案或者已经有人发布过相同内容了,请勿重复发帖。

凉城伊梦 发表于 2019-3-18 22:26 来自手机
延后聂→_→
大鱼爱吃猫 发表于 2019-3-18 22:49
现在动不动就搞什么版权收费啥的,要不就是广告满天飞,希望多一点楼主这样的分享高手
liumangtouzi_66 发表于 2019-3-18 23:10
12692873 发表于 2019-3-19 09:34
可惜了 不会用 最好附个教程什么的更好了 哈哈哈
您需要登录后才可以回帖 登录 | 注册[Register]

本版积分规则

返回列表

RSS订阅|小黑屋|处罚记录|联系我们|吾爱破解 - LCG - LSG ( 京ICP备16042023号 | 京公网安备 11010502030087号 )

GMT+8, 2024-11-16 05:35

Powered by Discuz!

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表