吾爱破解 - 52pojie.cn

 找回密码
 注册[Register]

QQ登录

只需一步,快速开始

查看: 8058|回复: 32
收起左侧

[Python 转载] 【python日常学习】爬取各种图片(电脑、手机壁纸,美女、明星图片,头像等等)

  [复制链接]
aa吴所谓 发表于 2020-8-5 14:19
【python日常学习】爬取各种图片(电脑、手机壁纸,美女、明星图片,头像等等)
又双叒叕发福利了
1.png
废话不多说,直接上代码:
[Python] 纯文本查看 复制代码
import re
import urllib
import requests
import os
from lxml import etree


def get_index_url():
    a = eval(input("电脑壁纸按1、手机壁纸按2、美女图片按3、明星图片按4、头像大全按5、搜索按6:"))
    if a==1:
        search = input("风景1、美女2、植物3、汽车4、明星5、动漫6、建筑7、动物8:")
        index_url = "https://www.gqxz.com/wallpaper/" + urllib.parse.quote(search) + "/"
    elif a==2:
        search = input("风景1、美女2、植物3、游戏4、明星5、动漫6、动物7:")
        index_url = "https://www.gqxz.com/mobile/" + urllib.parse.quote(search) + "/"
    elif a==3:
        search = input("清纯1、性感2、日本3、车模宝贝4、丝袜美腿6、Cosplay7:")
        index_url = "https://www.gqxz.com/beauty/" + urllib.parse.quote(search) + "/"
    elif a==4:
        search = input("内地女星1、内地男星2、港台女星3、欧美女星7:")
        index_url = "https://www.gqxz.com/star/" + urllib.parse.quote(search) + "/"
    elif a==5:
        search = input("微信1、男生2、女生3、情侣4、欧美5、动漫6、明星7:")
        index_url = "https://www.gqxz.com/portrait/" + urllib.parse.quote(search) + "/"
    elif a==6:
        keyword = input("请输入搜索关键词:")
        index_urls = "https://www.gqxz.com/search/?keyword="
        index_url = index_urls + urllib.parse.quote(keyword, safe='/')
    return index_url


def send_request(url):
    return requests.get(url, headers=headers,timeout=3).content


def parse(html_str):
    html = etree.HTML(html_str)
    titles = html.xpath('//img')
    #print(titles)
    content_list = []
    for title in titles[:30]:
        item = {}
        item['title'] = title.xpath('./@alt')[0]
        item['href'] = "https://www.gqxz.com" + title.xpath('../@href')[0]
        content_list.append(item)
        print(item)
    #print(content_list)
    return content_list


# 获取每张写真集的img_url
def get_img_url(detail_html):
    html = etree.HTML(detail_html)
    img_url = html.xpath('//div[@id="endtext"][@class="content_center"]/p/img/@src')[0]
    #print(img_url)
    return img_url


def save_image(final_dir, img_url):
    image_data = send_request(img_url)
    file_name = final_dir + '/' + img_url[-9:]
    with open(file_name, 'wb') as image:
        image.write(image_data)


# 判断文件夹是否存在,不存在创建文件夹
def mkdir(dir_name):
    if os.path.isdir("F:\Python爬取\图片\壁纸"+"/"+dir_name) != True:  # 如果保存的路径不存在
        os.makedirs(r"F:\Python爬取\图片\壁纸"+"/"+dir_name)  # 如果不存在。我们将创立这个路径
    path = "F:\Python爬取\图片\壁纸"+"/"+dir_name+"/"
    return path


if __name__ == '__main__':
    headers = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36",
        "Referer": "https://www.mzitu.com/"
    }

    # 1. 获取网站url
    index_url = get_index_url()
    # 2. 解析url
    html_str = send_request(index_url).decode()
    # 3. 获取网站url中的写真的url
    content_list = parse(html_str)
    j = 1
    # 获取每张写真集并解析
    for content in content_list[:30]:
        img_url_list = []
        print("-" * 30 + '正在获取第{}套壁纸集'.format(int(j)) + "-" * 30)
        j = j+1
        # 获取每张写真集的img_url
        # 第一页的img地址
        dir_name = content['title']
        next_url = content['href']
        print(dir_name)
        #print(next_url)
        detail_html = send_request(next_url)
        img_url = get_img_url(detail_html)
        a = img_url
        b = 0
        i = 1
        while a != b:
            final_dir = mkdir(dir_name)
            if a != 0:
                print(a+"下载完成!!")
                save_image(final_dir, a)
            a = b
            i = i + 1
            b = str(i)
            n = "_" + b + ".html"
            nexturl = re.sub(".html", n, next_url)
            detail_html = send_request(nexturl)
            img_url = get_img_url(detail_html)
            b = img_url
        print(a+"下载完成!!")
        save_image(final_dir, a)



可选择分类,下载内容
目前还不完善,陆续修改中,希望大家多多支持

免费评分

参与人数 7吾爱币 +6 热心值 +7 收起 理由
ricohrh + 1 + 1 用心讨论,共获提升!
一直等下去 + 1 我很赞同!
1113 + 1 + 1 热心回复!
plwt + 2 + 1 我很赞同!
hf123qwe + 1 + 1 感谢发布原创作品,吾爱破解论坛因你更精彩!
水合钙镁磷酸盐 + 1 + 1 谢谢@Thanks!
tehran + 1 鼓励转贴优秀软件安全工具和文档!

查看全部评分

本帖被以下淘专辑推荐:

发帖前要善用论坛搜索功能,那里可能会有你要找的答案或者已经有人发布过相同内容了,请勿重复发帖。

dibin 发表于 2020-8-5 22:46
大佬这个咋解决
with open(file_name, 'wb') as image:
FileNotFoundError: [Errno 2] No such file or directory:
 楼主| aa吴所谓 发表于 2020-8-5 17:54
yinxs 发表于 2020-8-5 16:37
你的学习资料可以分享一份嘛

就是看的大学慕课上嵩天老师的课
xiaohan1 发表于 2020-8-5 14:27
头像被屏蔽
偶尔平凡 发表于 2020-8-5 14:38
提示: 作者被禁止或删除 内容自动屏蔽
shiwujie 发表于 2020-8-5 14:46
python2.7可以永不
 楼主| aa吴所谓 发表于 2020-8-5 14:54
shiwujie 发表于 2020-8-5 14:46
python2.7可以永不

不知道,没有试过,我在python3.7上写的
qiyuedeyu 发表于 2020-8-5 14:58
谢谢分享我去试试
hf123qwe 发表于 2020-8-5 15:04
这个不错,谢谢分享
52zkl 发表于 2020-8-5 15:15
忍不住想学习
plwt 发表于 2020-8-5 15:16
有没有兴趣抓取视频网站视频,可以私聊我提供网站
头像被屏蔽
cy5520 发表于 2020-8-5 15:18
提示: 作者被禁止或删除 内容自动屏蔽
您需要登录后才可以回帖 登录 | 注册[Register]

本版积分规则

返回列表

RSS订阅|小黑屋|处罚记录|联系我们|吾爱破解 - LCG - LSG ( 京ICP备16042023号 | 京公网安备 11010502030087号 )

GMT+8, 2024-11-21 23:25

Powered by Discuz!

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表