吾爱破解 - LCG - LSG |安卓破解|病毒分析|www.52pojie.cn

 找回密码
 注册[Register]

QQ登录

只需一步,快速开始

查看: 26678|回复: 265
收起左侧

[Python 转载] 爬取小姐姐写真照的全站异步爬虫,即使设置了反爬我也要爬给你看

     关闭 [复制链接]
yinghihi 发表于 2021-7-3 00:01
本帖最后由 yinghihi 于 2021-7-3 22:35 编辑

7.3更新:
1,修正了bug,并且现在可以自己选择开始下载页和要下载的页数。
2,打包了我的python运行环境和代码,需要的可以直接下载压缩包,在解压后的文件夹内运行
[Bash shell] 纯文本查看 复制代码
pip install -r requirements.txt
即可将你的python环境变成同我一样,运行就应该不会出错了。
tulishe_spider.rar (2.23 KB, 下载次数: 1370) (解压密码:52pojie.net)



说在前面:1,因为用的异步方法,食用本爬虫前,请先
[Bash shell] 纯文本查看 复制代码
pip install aiohttp,aiofiles

2,这个网站设置了防盗链以及反爬,网站图片url无法直接访问,自己修改时,请在请求头中加上Referer字段,网站对同一ip的并发访问也有限制,超过7,30秒左右基本就会被暂时禁止访问。所以并发连接数不要太大,7够用了。具体效果看截图。


1、tulishe.py
[Python] 纯文本查看 复制代码
import asyncio
import random
import time

import aiohttp
import aiofiles
import requests
from lxml import etree
import os
import re
from fake_useragent import UserAgent
from functools import wraps
from asyncio.proactor_events import _ProactorBasePipeTransport


def silence_event_loop_closed(func):
    @wraps(func)
    def wrapper(self, *args, **kwargs):
        try:
            return func(self, *args, **kwargs)
        except RuntimeError as e:
            if str(e) != 'Event loop is closed':
                raise

    return wrapper


_ProactorBasePipeTransport.__del__ = silence_event_loop_closed(_ProactorBasePipeTransport.__del__)
ua = UserAgent()
headers = {'User-Agent': ua.random, 'Referer': 'http://www.tulishe.com'}


class tulishe:
    def __init__(self):
        self.write_num = 0

    async def get_url(self, url):
        async with aiohttp.ClientSession() as client:
            async with client.get(url, headers=headers) as resp:
                if resp.status == 200:
                    return await resp.text()

    async def html_parse(self, html):
        semaphore = asyncio.Semaphore(5)
        html_parse = etree.HTML(html)
        url_list = html_parse.xpath('//div[@class="img"]//a[@rel="bookmark"]/@href')
        tasks = [asyncio.create_task(self.img_parse(url, semaphore)) for url in url_list]
        await asyncio.wait(tasks)

    async def img_parse(self, h_url, sem):
        async with sem:
            semaphore = asyncio.Semaphore(5)
            h_html = await self.get_url(h_url)
            h_html_parse = etree.HTML(h_html)
            title = h_html_parse.xpath('//h1[@class="article-title"]/text()')[0]
            img_demo_url = h_html_parse.xpath(
                '//*[@id="gallery-2"]/div[@class="gallery-item gallery-blur-item"]/img/@src')
            img_url_list = []
            for d_url in img_demo_url:
                img_url = d_url.split('=')[1].split('&')[0]
                img_url_list.append(img_url)
            i_u_l = h_html_parse.xpath(
                '//div[@class="gallery-item gallery-fancy-item"]/a/@href')
            full_list = i_u_l + img_url_list
            index_list = list(range(1, len(full_list) + 1))
            index_dict = dict(zip(full_list, index_list))
            tasks = [asyncio.create_task(self.img_con(i_url, i_num, title, semaphore)) for i_url, i_num in
                     index_dict.items()]
            await asyncio.wait(tasks)

    async def img_con(self, url, num, title, semaphore):
        async with semaphore:
            async with aiohttp.ClientSession() as client:
                async with client.get(url, headers=headers) as resp:
                    if resp.status == 200:
                        img_con = await resp.read()
                        await self.write_img(img_con, num, title)
                    else:
                        print('请求出错,请尝试调低并发数重新下载!!')

    async def write_img(self, img_con, num, title):
        if not os.path.exists(title):
            os.makedirs(title)
            async with aiofiles.open(title + '/' + f'{num}.jpg', 'wb') as f:
                print(f'正在下载{title}/{num}.jpg')
                await f.write(img_con)
                self.write_num += 1
        else:
            async with aiofiles.open(title + '/' + f'{num}.jpg', 'wb') as f:
                print(f'正在下载{title}/{num}.jpg')
                await f.write(img_con)
                self.write_num += 1

    async def main(self, ):
        q_start_num = input('输入要从第几页开始下载(按Entry默认为1):') or '1'
        start_num = int(q_start_num)
        total_num = int(input('请输入要下载的页数:')) + start_num
        print('*' * 74)
        start_time = time.time()
        for num in range(start_num, total_num + 1):
            url = f'http://www.tulishe.com/all/page/{num}'
            html = await self.get_url(url)
            print('开始解析下载>>>')
            await self.html_parse(html)
        end_time = time.time()
        print(f'本次共下载写真图片{self.write_num}张,共耗时{end_time - start_time}秒。')


a = tulishe()
asyncio.run(a.main())


2,截图

20210702233355.png
20210702233635.png
结语:
可以看到,虽然有反爬限制,但1秒10张的速度是完全可以实用的,虽然之前想尝试用代{过}{滤}理池规避,但实际实验后发现,免费的完全不靠谱,可用的又太贵,只是用来日常学习实用,还是采用限制并发比较实际。

免费评分

参与人数 51吾爱币 +50 热心值 +45 收起 理由
YuanFang0w0 + 1 + 1 我很赞同!
qazwert + 1 + 1 谢谢@Thanks!
ndhndh2008 + 1 + 1 热心回复!
niuyifeng + 1 + 1 我很赞同!
云之从 + 1 + 1 谢谢@Thanks!
Badao163 + 1 我很赞同!
Asy_少洋 + 2 只能下载预览图吗,隐藏的不能下
pinhai + 1 + 1 我很赞同!
duanshifeng1994 + 1 + 1 我很赞同!
倚楼倾婷 + 1 + 1 我很赞同!
say88dst + 1 + 1 用心讨论,共获提升!
zzzzzk + 1 热心回复!
12335 + 1 + 1 我很赞同!
rebornsunset + 1 谢谢@Thanks
klan2015 + 1 热心回复!
XMQ + 1 + 1 用心讨论,共获提升!
yfm159789 + 1 + 1 谢谢@Thanks!
精明的猎人 + 1 学习理由
领悟者的涂鸦笔 + 1 欢迎分析讨论交流,吾爱破解论坛有你更精彩!
天然蘑菇呆 + 1 + 1 我很赞同!
MuFen + 1 不是原图啊,这解析度下载又有什么用?
vacancy_y + 1 + 1 我很赞同!
wll + 1 + 1 我很赞同!
h78wuai45 + 1 + 1 谢谢@Thanks!
zhouhairon + 1 + 1 谢谢@Thanks!
lsx02 + 1 + 1 谢谢@Thanks!
LosSantos + 1 + 1 我很赞同!
lyslxx + 1 + 1 我很赞同!
Colarier + 1 + 1 谢谢@Thanks!
zxyfy + 1 谢谢@Thanks!
桃源流水 + 1 + 1 热心回复!
kongbobach + 1 热心回复!
可控核聚变 + 1 + 1 谢谢@Thanks!
ikYi + 1 + 1 我很赞同!
dtdtxyjc + 1 + 1 动力+1
KOKO阿赞 + 1 + 1 刚开始遇到很多问题,插件啥的各种问题,有问题的其他贴友不要着急,我一步.
LV999999 + 1 + 1 谢谢@Thanks!
kongshanxinyu + 1 谢谢@Thanks!
帝王攻 + 1 + 1 用心讨论,共获提升!
董海岩 + 1 + 1 我很赞同!
智趣库 + 1 + 1 我很赞同!
DaiTian + 1 + 1 谢谢@Thanks!
时光取名叫无心 + 1 + 1 谢谢@Thanks!
苏紫方璇 + 5 + 1 欢迎分析讨论交流,吾爱破解论坛有你更精彩!
e.wgs + 1 我很赞同!
SEAlyy + 1 + 1 用心讨论,共获提升!
伊银 + 1 + 1 我是进来看写真照的 怎么没有
qws1855 + 1 + 1 用心讨论,共获提升!
lfm333 + 1 + 1 谢谢@Thanks!
任先生D八世轮回 + 1 + 1 用心讨论,共获提升!
Lucifer_BW + 1 + 1 热心回复!

查看全部评分

发帖前要善用论坛搜索功能,那里可能会有你要找的答案或者已经有人发布过相同内容了,请勿重复发帖。

塞北的雪 发表于 2021-7-3 10:49
油猴子脚本

[JavaScript] 纯文本查看 复制代码
// ==UserScript==
// @name         图丽社
// @namespace    http://tampermonkey.net/
// @version      0.1
// @description  try to take over the world!
// @author       塞北的雪
// @match        http://www.tulishe.com/*.html
// @icon         https://www.google.com/s2/favicons?domain=tulishe.com
// @grant        none
// ==/UserScript==

(function() {
    'use strict';
    $=window.jQuery;
    //.gallery-item.gallery-fancy-item
    $(".gallery-item.gallery-blur-item img").css("filter","none");
    $(".gallery-item.gallery-blur-item img").each(function(){
        let src=/(?<==).+?(?=&)/.exec($(this).attr('src'))[0];
        $(this).wrap(`<a href="${src}" class="img" data-fancybox="gallery-2"></a>`);
    });
})();

免费评分

参与人数 6吾爱币 +4 热心值 +5 收起 理由
YxxxL + 1 + 1 谢谢@Thanks!
waaoo + 1 这脚本干什么用的?
Eli + 1 谢谢@Thanks!
hooing + 1 + 1 这脚本写得不错
领悟者的涂鸦笔 + 1 欢迎分析讨论交流,吾爱破解论坛有你更精彩!
小二白 + 1 + 1 我很赞同!

查看全部评分

lcwww 发表于 2021-7-3 01:29
网站是真好。。看了一个多小时。。。谢谢楼主的分享。。

免费评分

参与人数 1吾爱币 +1 收起 理由
jason9623 + 1 我很赞同!

查看全部评分

不要学我说话 发表于 2021-7-14 17:25
非常猥锁 发表于 2021-7-3 09:41
这就是学习编程的动力
tayachak 发表于 2021-7-6 17:31
锄禾日当午,汗滴和下土
wangad123 发表于 2021-7-17 23:02
本帖最后由 wangad123 于 2021-7-17 23:06 编辑

&w=10000&h=10000&zc=2&q=100 参数一改 达到类似原图的效果 不想写代码的可以用火车头之类的采集全站 获取到src链接自己拼接参数
Jocelyn123 发表于 2021-7-3 07:04
非会员只能看四张 超过四张的图片访问都是缩略图 给以修改参数放大 &w=800&zc=2
willgoon 发表于 2021-7-3 00:06
原来这就是你学代码的动力!
 楼主| yinghihi 发表于 2021-7-3 00:08
willgoon 发表于 2021-7-3 00:06
原来这就是你学代码的动力!

只是用来学习异步而已,爬其他网站怕被打

免费评分

参与人数 1吾爱币 +1 收起 理由
linying0208 + 1 你不用解释了。。。我们都懂的!

查看全部评分

rain298 发表于 2021-7-3 00:10
yinghihi 发表于 2021-7-3 00:08
只是用来学习异步而已,爬其他网站怕被打

都是借口
周大玉 发表于 2021-7-3 00:14
不能解渴啊,越看最越干
wangwhc 发表于 2021-7-3 00:21
求成品。。。
tek2y 发表于 2021-7-3 00:43
楼主牛逼
列明 发表于 2021-7-3 00:45
網址到手!
默默溜走!
klcuser 发表于 2021-7-3 00:46
爬呀爬,爬到硬盘没空间。
黎明_ 发表于 2021-7-3 00:47
能请教几个问题吗?关于知乎爬视频的
您需要登录后才可以回帖 登录 | 注册[Register]

本版积分规则 警告:本版块禁止灌水或回复与主题无关内容,违者重罚!

快速回复 收藏帖子 返回列表 搜索

RSS订阅|小黑屋|处罚记录|联系我们|吾爱破解 - LCG - LSG ( 京ICP备16042023号 | 京公网安备 11010502030087号 )

GMT+8, 2024-4-19 01:19

Powered by Discuz!

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表