情绪666 发表于 2021-11-24 11:25

【Python爬虫】爬取表情包-学习基本的页面爬取

本帖最后由 情绪666 于 2021-11-26 12:07 编辑

https://static.52pojie.cn/static/image/hrline/4.gif 爬取表情包https://static.52pojie.cn/static/image/hrline/4.gif
一、爬取页面: https://fabiaoqing.com/biaoqing

[*]Fix:
2021/11/26: 1. 动态判断图片类型保存到本地 2. 文件名过长无法保存到本地,进行截取120个字符


二、能学到了什么(专业非Python:有错误请指正,看到会及时调整修改,还是比较适用于入门爬虫,基本上不是前后端分离的都可以使用)
[*]爬取 HTML 页面
[*]使用 XPath 语法解析页面
[*]asyncio 进行同步调用,防止爬取过快
[*]保存图片到文件夹
[*]简单的正则表达式,剔除 windows 不运行出现的字符
[*]定时器 time.sleep 延时
[*]etree 解析页面,基本上爬取页面都能这样用
[*]错误处理:错误重试,多次错误则跳过
[*]tqdm 进度条显示(用法在百度上面有很多 https://blog.csdn.net/qq_33472765/article/details/82940843)




https://static.52pojie.cn/static/image/hrline/4.gif 效果展示https://static.52pojie.cn/static/image/hrline/4.gif






https://static.52pojie.cn/static/image/hrline/4.gif 代码区域https://static.52pojie.cn/static/image/hrline/4.gif

# -*- coding: utf-8 -*-
# Time : 2021/11/23 10:39
# Author : Melon
# Site :
# Note :
# File : biaoqingbao.py
# Software: PyCharm
import asyncio
import imghdr
import os
import re
import time

import requests
from lxml import etree
from tqdm import tqdm

# 错误次数
err_num = 0


async def saveImg(image_url, file_name):
    global err_num
    # Windows 保存文件时不能出现这些字符,全部替换成_
    file_name = re.sub(r'[\\/:*?"<>|\r\n]+', "_", file_name)
    if len(file_name) > 120:
      file_name = file_name[:120]
    try:
      # 文件夹名称
      dir_name = './表情包'
      # 没有文件夹 就 创建文件夹
      if not os.path.exists(dir_name):
            os.mkdir(dir_name)
      # 加延迟防止过快
      time.sleep(0.5)
      result = requests.get(image_url)
      # 保存图片
      with open(dir_name + "/" + file_name + '.' + imghdr.what(None, result.content), "wb") as f:
            f.write(result.content)
    except Exception as e:
      # 异常:1.打印错误信息 2.延迟 3S 后重新调用 3.错误超过3次则跳过
      err_num += 1
      print("\nError Total %s Sleep 3 saveImg:%s Message: %s" % (err_num, image_url, e))
      if err_num >= 3:
            pass
      else:
            time.sleep(3)
            await saveImg(image_url, file_name)


async def get_img(start_page, end_page):
    global err_num
    for i in range(start_page, end_page):
      url = "https://fabiaoqing.com/biaoqing/lists/page/{}.html".format(i)
      get = requests.get(url=url)
      # xpath解析
      html = etree.HTML(get.content)
      divs = html.xpath("//div[@class='tagbqppdiv']")
      # 设置进度条
      pbar = tqdm(total=len(divs))
      # 设置进度条前面的文字
      pbar.set_description("Processing 第%s页" % i)
      for div in divs:
            # 设置进度条后面的文字
            pbar.set_postfix_str(div.xpath("./a/img/@title"))
            # 保存图片
            err_num = 0
            img_data_original = div.xpath("./a/img/@data-original")
            await saveImg(img_data_original, div.xpath("./a/img/@title"))
            # print('\n' + div.xpath("./a/img/@title"), div.xpath("./a/img/@data-original"))
            # time.sleep(0.5)
            # 更新进度条
            pbar.update(1)
      # 关闭进度条
      pbar.close()


if __name__ == '__main__':
    # 1. 创建一个事件循环
    loop = asyncio.get_event_loop()
    tasks = [
      loop.create_task(get_img(21, 201)),
    ]
    # 3. 执行事件队列
    loop.run_until_complete(asyncio.wait(tasks))
    loop.close()

YiWood 发表于 2021-11-24 11:28

很不错的初学者案例

Domanca 发表于 2021-11-26 11:15

本帖最后由 Domanca 于 2021-11-26 11:16 编辑

Domanca 发表于 2021-11-26 00:27
看了一下,这个网站表情包还不错,200页
你的程序没有多线程,我又还不会,只能多开几个一起跑,多下一点 ...
有个问题,你这默认保存为Png格式,但是很多表情包都是gif格式的,保存下来就不是动图了

type = div.xpath("./a/img/@data-original")[-4:]
if(type!=".gif" and type!=".jpg"):
      type = ".png"
# 保存图片
err_num = 0
await saveImg(div.xpath("./a/img/@data-original"), div.xpath("./a/img/@title") + type)
改这样可以保存为jpg,png和gif

yjn866y 发表于 2021-11-24 11:44

i不错学习一下。。。

wupeng010142 发表于 2021-11-24 12:40

收藏。

LaLaLand 发表于 2021-11-24 13:35

是时候收藏一波了

aresxin 发表于 2021-11-24 13:48

先学习了{:1_919:}

mika_2003 发表于 2021-11-24 14:52

是时候收藏一波了

xiaodie0607 发表于 2021-11-24 14:58

我可能太笨了,真是一点也看不懂,虽然是入门级的。

anzio0 发表于 2021-11-24 15:58

收藏一波   留着收集表情包

baiyegua1214 发表于 2021-11-25 09:58

收藏~正好也刚接触Python
页: [1] 2 3
查看完整版本: 【Python爬虫】爬取表情包-学习基本的页面爬取