朕灬黑手党 发表于 2018-7-6 15:10

【python】爬取并批量下载网易云歌单,嗨翻暑假!

本帖最后由 wushaominkk 于 2018-7-6 15:21 编辑

昨天发布了一个爬取猫眼Top100电影的爬虫,暑假够你看电影的啦!
传送门:https://www.52pojie.cn/thread-761783-1-1.html
还是有那么一丢丢成就感:lol
今天给你们带来一个批量下载网易云歌单歌曲的Demo. 不能下载会员的!
我优化了一下我的代码.昨天被人说直接放代码没看懂,今天我给你分下一下我的代码和思路!
喜欢直接码字,不注意格式了!这是我第二次发爬虫帖子,分享一下心得!


首先导入一下包
import requests
import time
from multiprocessing import Pool
from bs4 import BeautifulSoup
from urllib.request import urlretrieve

#1.获取页面源代码   url =https://music.163.com/#/playlist?id=2269661190注意:你在敲代码时候,需要去掉原来连接里面的 /#
附上代码:
#1.获取页面源代码
def get_page():
    """获取网页源代码(选择自己喜欢的网易云歌单连接)"""
    # 去掉原链接里面的   #/
    url ="https://music.163.com/playlist?id=2269661190"
    #请求头
    headers ={
      'Host':'music.163.com',
      'Referer':'https://music.163.com/',
      'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'
    }
    #获取网页源代码
    res = requests.get(url,headers=headers).text
    #创建对象解析网页
    r = BeautifulSoup(res,"html.parser")

#2.获取ID
    music_dict = {}
    #找源代码中的a标签
    result = r.find("ul",{'class':'f-hide'}).find_all('a')
    for music in result:
      music_id = music.get('href').strip("/song?id=")#去掉/song?id
      music_name = music.text #获取其中的文字
      music_dict = music_name
    return music_dict

这个函数目的是为了获取每个歌的ID地址,具体的看图片
这里最后有个return是为了给下面一个函数传入参数的

然后我们获取了想要的ID
然后就下载!!!!!
使用了from urllib.request import urlretrieve
里面urlretrive(url,path)
源码:
#3.下载歌曲
def download_song(music_dict):
    """下载音乐"""
    for song_id in music_dict:
      song_url = "http://music.163.com/song/media/outer/url?id=%s.mp3"%song_id
      #下载地址(地址填写自己的地址)
      path="C:\\Users\Administrator\Desktop\网易云音乐\\%s.mp3"%music_dict#通过键值对来查找歌曲名字
      #下载音乐urlretriver (地址路径)
      time.sleep(1)
      urlretrieve(song_url,path)
      print("正在下载%s"%music_dict)


好了 上面就是很简单的过程, 放上全部源码!!#!/usr/bin/env python#!--*--coding:utf-8 --*--
#!@Time    :2018/7/6 12:13
#!@AuThor   TrueNewBee
#爬取并批量下载网易云歌单歌曲
#根据URL下载音乐https://music.163.com/#/playlist?id=2269661190

import requests
import time
from multiprocessing import Pool
from bs4 import BeautifulSoup
from urllib.request import urlretrieve


#1.获取页面源代码
def get_page():
    """获取网页源代码(选择自己喜欢的网易云歌单连接)"""
    # 去掉原链接里面的   #/
    url ="https://music.163.com/playlist?id=2269661190"
    #请求头
    headers ={
      'Host':'music.163.com',
      'Referer':'https://music.163.com/',
      'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'
    }
    #获取网页源代码
    res = requests.get(url,headers=headers).text
    #创建对象解析网页
    r = BeautifulSoup(res,"html.parser")

#2.获取ID
    music_dict = {}
    #找源代码中的a标签
    result = r.find("ul",{'class':'f-hide'}).find_all('a')
    for music in result:
      music_id = music.get('href').strip("/song?id=")#去掉/song?id
      music_name = music.text #获取其中的文字
      music_dict = music_name
    return music_dict


#3.下载歌曲
def download_song(music_dict):
    """下载音乐"""
    for song_id in music_dict:
      song_url = "http://music.163.com/song/media/outer/url?id=%s.mp3"%song_id   #网易云音乐的外链
      #下载地址(地址填写自己的地址)
      path="C:\\Users\Administrator\Desktop\网易云音乐\\%s.mp3"%music_dict#通过键值对来查找歌曲名字
      #下载音乐urlretriver (地址路径)
      time.sleep(1)
      urlretrieve(song_url,path)
      print("正在下载%s"%music_dict)


defmain():
    music_dict =get_page()
    download_song(music_dict)

if __name__ == '__main__':
    main()




评分热心免费!!!附上源码地址:https://github.com/TrueNewBee/pythonDemo
有不懂得可以留言评论,以后有机会出更详细教程



这个是网易云歌曲ID


wazz129 发表于 2018-7-6 23:40

wazz129 发表于 2018-7-6 23:24
这是我 爬淘宝的利用selenium 自动打开 并保存到你自己的数据库 mogodb转换成csv或者txt格式 记得转换 ...

忘记了刚开始看Django弄了个投票搜索字数俩个.搜索字数是   看note.md有惊喜哦:lol   https://github.com/then-on/WX

wazz129 发表于 2018-7-6 23:24

这是我 爬淘宝的利用selenium 自动打开 并保存到你自己的数据库 mogodb转换成csv或者txt格式 记得转换啊# 利用 Selenium 抓取淘宝商品并用 PyQuery 解析得到商品的图片、名称、价格、购买人数、
# 店铺名称、店铺所在地信息,并将其保存到MongoDB。以及数据库,csv格式等

from selenium import webdriver
from selenium.common.exceptions import TimeoutException
from selenium.webdriver.common.by import By
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.wait import WebDriverWait
from urllib.parse import quote
browser = webdriver.Chrome()
wait = WebDriverWait(browser,10)

KEYWORD = input('请输入要检索的物品:')

def index_page(page):
    """
    抓取索引页
    :param page:页码
    :return:
    """
    print('正在爬取第',page,'页')
    try:
      url = 'https://s.taobao.com/search?q=' + quote(KEYWORD)
      browser.get(url)
      if page > 1:
            input = wait.until(
               EC.presence_of_element_located((By.CSS_SELECTOR,'#mainsrp-pager div.form > input'))
            )

            submit = wait.until(
                EC.element_to_be_clickable((By.CSS_SELECTOR,'#mainsrp-pager div.form > span.btn.J_Submit'))
            )
            input.clear()
            input.send_keys(page)
            submit.click()
      wait.until(
            EC.text_to_be_present_in_element((By.CSS_SELECTOR, '#mainsrp-pager li.item.active > span'), str(page))
      )
      wait.until(
            EC.presence_of_element_located((By.CSS_SELECTOR, '.m-itemlist .items .item'))
      )
      get_products()
    except TimeoutException:
      index_page(page)

from pyquery import PyQuery as pq
def get_products():
    """
    提交商品数据
    :return:
    """
    html = browser.page_source
    doc = pq(html)
    items = doc('#mainsrp-itemlist .items .item').items()
    for item in items:
      product = {
            'image':item.find('.pic .img').attr('data-src'),
            'price':item.find('.price ').text(),
            'deal':item.find('.deal-cnt').text(),
            'title':item.find('.title').text(),
            'shop':item.find('.shop').text(),
            'location':item.find('.location').text(),
      }
      print(product)
      write_txt(product)
      save_mysql(product)
      save_to_mongo(product)
      save_image(product)

import os
from hashlib import md5
import requests
def save_image(item):
    if not os.path.exists(item.get('shop')):
      os.mkdir(item.get('shop'))
      try:
            local_image_url = item.get('image')
            response = requests.get('http:' + local_image_url)
            file_path = '{0}/{1}.{2}'.format(item.get('shop'),md5(response.content).hexdigest(),'jpg')
            if not os.path.exists(file_path):
                with open(file_path,'wb') as f:
                  f.write(response.content)
                  print('Success to Save image')
            else:
                print('Already Downloaded', file_path)
      except requests.ConnectionError:
            print('Failed to Save Image')


import pymongo
MONGO_URL = '127.0.0.1'
MONGO_DB = 'taobao'
MONGO_COLLECTION = 'products'
client = pymongo.MongoClient(MONGO_URL)
db = client
def save_to_mongo(result):
    """
    保存到Mongodb 名字淘宝
    :return:结果
    """
    try:
      if db.insert(result):
            print('存储到Mongodb成功')
    except Exception:
      print('存储到Mongodb失败')

def write_txt(content):
    try:
      with open('tao.csv','a',encoding='utf-8') as f:
            f.write(str(content)+ '\n') #要存到txt,csv 字典格式不能直接写入 转换成json或者 字符串
            print('写入成功')
    except Exception:
      print('写入失败')

import pymysql
sql_db = pymysql.connect(host = 'localhost',user = 'root',password = 'root123',port = 3306,db = 'tao',charset='utf8')
cursor = sql_db.cursor()
def save_mysql(content):
    table = 'ipad'
    keys = ','.join(content.keys())
    values = ','.join(['%s'] * len(content))
    sql = 'insert into {table}({keys}) values ({values})'.format(table=table,keys=keys,values=values)
    try:
      if cursor.execute(sql,tuple(content.values())):
            print('Successful')
            sql_db.commit()
    except:
      print('Failed')
      sql_db.rollback()
    #sql_db.close()


def main():
    """
    遍历每一页
    :return:
    """
    MAX_PAGE = input("MAX_PAGE:")
    MAX_PAGE = int(MAX_PAGE)
    for i in range(1,MAX_PAGE+1):
      index_page(i)
    browser.close()
if __name__ == '__main__':
    main()

五月何欢 发表于 2018-7-6 15:13

是批量获取吗?我有一个免费下载全站音乐的站点,能添加进去规则么?这样可以实现全网的音乐。

wushaominkk 发表于 2018-7-6 15:20

发帖前,看看版规,注意标题规范,已帮你修改好了,下次注意!

朕灬黑手党 发表于 2018-7-6 15:33

wushaominkk 发表于 2018-7-6 15:20
发帖前,看看版规,注意标题规范,已帮你修改好了,下次注意!

好的!新人发帖,下次注意!:lol

朕灬黑手党 发表于 2018-7-6 15:35

五月何欢 发表于 2018-7-6 15:13
是批量获取吗?我有一个免费下载全站音乐的站点,能添加进去规则么?这样可以实现全网的音乐。

这个仅仅是个1.0,你可以进行迭代!

小彭彭 发表于 2018-7-6 15:35

for循环建议换多进程

朕灬黑手党 发表于 2018-7-6 15:41

小彭彭 发表于 2018-7-6 15:35
for循环建议换多进程

可以迭代,多进程学的有点不大好,目前继续python学习!

吾爱男人 发表于 2018-7-6 15:50

需要VIP的都能下载吗?

pjext 发表于 2018-7-6 15:51

技术好贴,赞一个

jshon 发表于 2018-7-6 15:54

说实话,感觉用处不是很大,但很佩服楼主的钻研精神
页: [1] 2 3
查看完整版本: 【python】爬取并批量下载网易云歌单,嗨翻暑假!