吾爱破解 - 52pojie.cn

 找回密码
 注册[Register]

QQ登录

只需一步,快速开始

查看: 5318|回复: 80
收起左侧

[Python 原创] 写真网站爬取实战代码

  [复制链接]
Naraci 发表于 2023-5-5 22:57
去年学习python练手的小项目今天发现还能爬取现在分享出来交流学习。
此项目可能会有未知bug,但是能爬就行若有兴趣自行修复
注意:需要在python文件目录内创建文件夹,具体名字可看代码标注,代码内以有注释解释自行理解

上代码
[Python] 纯文本查看 复制代码
# -*- coding: utf-8 -*-
# [url=home.php?mod=space&uid=238618]@Time[/url]    : 2022/10/26 7:41
# [url=home.php?mod=space&uid=686208]@AuThor[/url]  : Naraci
# [url=home.php?mod=space&uid=267492]@file[/url]    : 写真优化重构版.py

import parsel
import requests

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/105.0.0.0 '
                  'Safari/537.36 '
}

def url_request(url):
    request = requests.get(url=url, headers=headers)
    # 设置编码格式防止乱码
    request.encoding = 'utf-8'
    html_text = request.text
    # 转换数据类型
    parse_forats = parsel.Selector(html_text)
    parse_forats_list = parse_forats.xpath('//section//div//ul//span/text()').getall()[-1]  # 取该页面总页数
    num_list = [i for i in parse_forats_list if str.isdigit(i)]  # Python isdigit() 方法检测字符串是否只由数字组成。返回True or False.
    add_list = ''
    for i in num_list:
        add_list = add_list + i

    number_end = int(add_list)  # 转换成整数类型
    # 页面地址 https://www.wxept.com/qqmn/rbmn/page/2
    html_url = url
    # 遍历每个页面地址
    for page in range(1, number_end + 1):
        if page == 1:
            request_url = html_url
        else:
            request_url = html_url + '/page/' + str(page)
        print('正在下载:' + request_url + '页面!')
        # for page_list in range(1, number_end + 1):
        request_url.encode('utf-8')
        url_list = requests.get(url=request_url, headers=headers)
        selector = url_list.text
        selector = parsel.Selector(selector)  # 转换数据类型
        content = selector.xpath('//div//div/article')  # 获取所有需要的标签
        for article in content:
            pic_title = article.xpath('./h2/a/text()').get()  # 套图标题 用于命名文件夹  返回为对象属性需要用get取出来
            pic_url = article.xpath('./h2/a/@href').get()
            print('已将相册:' + pic_title + '添加到队列!')
    #         pic_url = 'https://www.wxept.com/8762.html'
    # #         pic_url = 'https://www.wxept.com/8879.html'
            # 发送相册页面地址
            response_pic = requests.get(url=pic_url, headers=headers).text
            # 获取相册页面所有页数
            selector_2 = parsel.Selector(response_pic)
            img_url = selector_2.xpath('//div/a/span').getall()[-2]
            num_list = [i for i in img_url if str.isdigit(i)]  # Python isdigit() 方法检测字符串是否只由数字组成。返回True or False.
            add_list = ''
            number_list = pic_url.split('.html')[0]
            # # 遍历出所有页面
            for i in num_list:
                add_list = add_list + i
            number_end = int(add_list)
            for page in range(1, number_end + 1):
                if page == 1:
                    request_html_url = number_list + '.html'
                else:
                    request_html_url = number_list + '.html/' + str(page)
                print(request_html_url)
                #解析图片地址
                response_pic = requests.get(url=request_html_url, headers=headers).text
                selector_2 = parsel.Selector(response_pic)
                img_url = selector_2.xpath('//section//article//a/img/@src').getall()
                for pic_url in img_url:
                    # 发送图片链接请求,获取图片数据以二进制数据保存
                    img_data = requests.get(url=pic_url, headers=headers).content
                    # 数据保存
                    fil_name = pic_url.split('/')[-1]  # 获取图片名字
                    with open('meitudownloads\\' + fil_name, mode='wb') as fp:  # wb 二进制
                        fp.write(img_data)
                        print('下载完成:' + fil_name)


if __name__ == '__main__':
    print('请在文件目录手动新建meitudownload目录')
    print('在下面网址复制url粘贴值下方:https://www.wxept.com/qqmn/')
    put_url = input('请输入正确分类页面url:')
    # url = 'https://www.wxept.com/qqmn/dlmn'
    url = put_url
    url_request(url)
    print('全部下载成功!')

    # 文件根目录手动创建meitu文件夹


再次声明此代码仅供交流学习请勿恶意爬取站点内容以免影响站点运行
若此代码对您有所帮助请点个赞投个币哦,新人第一次发技术贴

免费评分

参与人数 9吾爱币 +8 热心值 +8 收起 理由
ryanie + 1 + 1 谢谢@Thanks!
xuming0315 + 1 用心讨论,共获提升!
echoaku + 1 + 1 热心回复!
Love8899 + 1 + 1 好软件的东西
miaoyu666 + 1 + 1 谢谢@Thanks!
嘟了个嘟 + 1 + 1 谢谢@Thanks!
Kdocke + 1 我很赞同!
woyucheng + 1 + 1 谢谢@Thanks!
codeaftercode + 1 + 1 热心回复!

查看全部评分

本帖被以下淘专辑推荐:

发帖前要善用论坛搜索功能,那里可能会有你要找的答案或者已经有人发布过相同内容了,请勿重复发帖。

 楼主| Naraci 发表于 2023-5-9 10:59
DaDaGuai52pj 发表于 2023-5-9 10:54
可以把每个写真分为一个文件夹么

这个你可以自己改动哦本贴只是仅供参考
Arcticlyc 发表于 2023-5-5 23:39
htxz2022 发表于 2023-5-5 23:58
洋葱哥哥 发表于 2023-5-6 00:04
冲着写真来的,我也爬爬学习一下
HAJDx 发表于 2023-5-6 00:13
好!可以去用UserAgent的fake_useragent 头就'User-Agent':user_agent.random
zhiaipojie0313 发表于 2023-5-6 01:15
呵呵,支持一下
lovxyj 发表于 2023-5-6 07:11
哈哈,支持一下
蛋疼王子 发表于 2023-5-6 08:13
学习一下
zhuobin_c 发表于 2023-5-6 08:22
哦,学习。
哦,爬取。
 楼主| Naraci 发表于 2023-5-6 08:30

正经不正经网站早没了
您需要登录后才可以回帖 登录 | 注册[Register]

本版积分规则

返回列表

RSS订阅|小黑屋|处罚记录|联系我们|吾爱破解 - LCG - LSG ( 京ICP备16042023号 | 京公网安备 11010502030087号 )

GMT+8, 2024-11-24 17:29

Powered by Discuz!

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表