aa吴所谓 发表于 2020-8-7 06:34

【python日常学习】优化:爬取高清写真网站的妹子图

前两天发了一个【python日常学习】爬取各种图片(电脑、手机壁纸,美女、明星图片,头像等等)的帖子,代码还有些不完善,不能下载多页,仅能下载一页的内容。
优化了一下,可下载多页图片,图片质量也是杠杠滴{:301_997:}
代码如下:
import re
import urllib
import requests
import os
from lxml import etree


def get_index_url():
    a = eval(input("电脑壁纸按1、手机壁纸按2、美女图片按3、明星图片按4、搜索按5:"))
    if a==1:
      search = input("风景1、美女2、植物3、汽车4、明星5、动漫6、建筑7、动物8:")
      index_url = "https://www.gqxz.com/wallpaper/" + urllib.parse.quote(search) + "/"
    elif a==2:
      search = input("风景1、美女2、植物3、游戏4、明星5、动漫6、动物7:")
      index_url = "https://www.gqxz.com/mobile/" + urllib.parse.quote(search) + "/"
    elif a==3:
      search = input("清纯1、性感2、日本3、车模宝贝4、丝袜美腿6、Cosplay7:")
      index_url = "https://www.gqxz.com/beauty/" + urllib.parse.quote(search) + "/"
    elif a==4:
      search = input("内地女星1、内地男星2、港台女星3、欧美女星7:")
      index_url = "https://www.gqxz.com/star/" + urllib.parse.quote(search) + "/"
    elif a==5:
      keyword = input("请输入搜索关键词:")
      index_urls = "https://www.gqxz.com/search/?keyword="
      index_url = index_urls + urllib.parse.quote(keyword, safe='/')
    return index_url


def send_request(url):
    return requests.get(url, headers=headers,timeout=3).content


def parse(html_str):
    html = etree.HTML(html_str)
    titles = html.xpath('//img')
    #print(titles)
    content_list = []
    for title in titles[:30]:
      item = {}
      item['title'] = title.xpath('./@alt')
      item['href'] = "https://www.gqxz.com" + title.xpath('../@href')
      content_list.append(item)
      print(item)
    #print(content_list)
    return content_list


# 获取每张写真集的img_url
def get_img_url(detail_html):
    html = etree.HTML(detail_html)
    img_url = html.xpath('//div[@id="endtext"][@class="content_center"]/p/img/@src')
    #print(img_url)
    return img_url


def save_image(final_dir, img_url):
    image_data = send_request(img_url)
    file_name = final_dir + '/' + img_url[-9:]
    with open(file_name, 'wb') as image:
      image.write(image_data)


# 判断文件夹是否存在,不存在创建文件夹
def mkdir(dir_name):
    if os.path.isdir("F:\Python爬取\图片\壁纸"+"/"+dir_name) != True:# 如果保存的路径不存在
      os.makedirs(r"F:\Python爬取\图片\壁纸"+"/"+dir_name)# 如果不存在。我们将创立这个路径
    path = "F:\Python爬取\图片\壁纸"+"/"+dir_name+"/"
    return path


if __name__ == '__main__':
    headers = {
      "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36",
      "Referer": "https://www.mzitu.com/"
    }

    # 1. 获取网站url
    index_url = get_index_url()
    # 2. 解析url
    html_str = send_request(index_url).decode()
    # 3. 获取网站url中的写真的url
    content_list = parse(html_str)
    j = 1
    # 获取每张写真集并解析
    for content in content_list[:30]:
      img_url_list = []
      print("-" * 30 + '正在获取第{}套壁纸集'.format(int(j)) + "-" * 30)
      j = j + 1
      # 获取每张写真集的img_url
      # 第一页的img地址
      dir_name = content['title']
      next_url = content['href']
      print(dir_name)
      # print(next_url)
      detail_html = send_request(next_url)
      img_url = get_img_url(detail_html)
      a = img_url
      b = 0
      i = 1
      while a != b:
            final_dir = mkdir(dir_name)
            if a != 0:
                print(a + "下载完成!!")
                save_image(final_dir, a)
            a = b
            i = i + 1
            n = "_" + str(i) + ".html"
            nexturl = re.sub(".html", n, next_url)
            detail_html = send_request(nexturl)
            img_url = get_img_url(detail_html)
            b = img_url
      print(a + "下载完成!!")
      save_image(final_dir, a)
    w = html_str
    y = 0
    s = 1
    while w!=y:
      w = y
      if w!=0:
            # 3. 获取网站url中的写真的url
            content_list = parse(html_str)
            j = 1
            # 获取每张写真集并解析
            for content in content_list[:30]:
                img_url_list = []
                print("-" * 30 + '正在获取第{}套壁纸集'.format(int(j)) + "-" * 30)
                j = j + 1
                # 获取每张写真集的img_url
                # 第一页的img地址
                dir_name = content['title']
                next_url = content['href']
                print(dir_name)
                # print(next_url)
                detail_html = send_request(next_url)
                img_url = get_img_url(detail_html)
                a = img_url
                b = 0
                i = 1
                while a != b:
                  final_dir = mkdir(dir_name)
                  if a != 0:
                        print(a + "下载完成!!")
                        save_image(final_dir, a)
                  a = b
                  i = i + 1
                  n = "_" + str(i) + ".html"
                  nexturl = re.sub(".html", n, next_url)
                  detail_html = send_request(nexturl)
                  img_url = get_img_url(detail_html)
                  b = img_url
                print(a + "下载完成!!")
                save_image(final_dir, a)


      s = s+1
      t = "list_"+str(s)+".html"
      indexurl = index_url+t
      print(indexurl)
      html_str = send_request(indexurl).decode()
      y = html_str


希望大家多多支持{:1_893:}{:1_893:}

yemei528 发表于 2020-8-7 08:47

龙舌兰 发表于 2020-8-7 08:05
楼主,出现上图是什么原因?小白解答下,有高手可以帮他解释下,谢谢
没有安装'lxml'库,
可以试试:pip install lxml
然后再试试

fanvalen 发表于 2020-8-7 14:37

c03xp 发表于 2020-8-7 13:10
我是python 2.7
运行脚本首先提示:。。。Non-Ascii。。。,于是在开头加了句#coding=utf-8
然后又提示缺 ...

出现乱码就是解码错误,要在getweb 返回后做解码 webdate.ecoding=“utf-8”

高阳破解 发表于 2020-8-7 06:45

厉害厉害,学习了

砺心缘起 发表于 2020-8-7 06:54

感谢,虽然小白暂时还不太懂!!{:1_919:}

subney 发表于 2020-8-7 07:04

学习了,赞一个

矢志不渝 发表于 2020-8-7 07:21

这个好像很实用呀,要是有个抓取视频的就更棒了

hyf6661669 发表于 2020-8-7 07:40


厉害厉害,学习了

真的很想加入啊 发表于 2020-8-7 07:45

不错,感觉自己还能再稍微修改一下

563逝 发表于 2020-8-7 07:51

谢谢分享

小木剑 发表于 2020-8-7 07:51

感谢分享

lypxynok 发表于 2020-8-7 07:56

向楼主学习
页: [1] 2 3 4 5 6
查看完整版本: 【python日常学习】优化:爬取高清写真网站的妹子图