科迈罗 发表于 2020-8-20 22:31

简单爬取百度图片并转换为灰度照

本帖最后由 wushaominkk 于 2020-8-21 14:18 编辑

# 0. 准备
专业的抓包工具我喜欢用wireshark,不过这篇没用多少抓包技巧
编辑器用的是pycharm2020.1.1
python版本是win10子系统自带的3.6
一堆第三方库都是用pycharm装的,很方便


# 1. 抓包百度图片官网https://image.baidu.com/ ,随机在首页搜索一个关键字



然后F12观察,点一下左上角的垃圾桶图标,



然后F5刷新一下,经过观察,我们要找的触发源是XHR中的html类型文件



轻轻往下一滑,发现,`pn`参数里面存在规律,步长为30递增





然后将该请求中所有的参数都copy下来,打成一个字典,作为params
** 注意这里的最后一个参数1597926642252,每天都在变**
由于每页30个图片,将30作为迭代步长,做成列表



# 2. 简单爬取以下



由于没加UA也没加代{过}{滤}理,只爬到了一个200的状态值。。。。
再次观察这个请求的response,提取每一张图片的url,此处可考虑用bs4、re,笔者只是简单使用字符串的识别





# 3. 面向对象

先将爬取、下载图片两步分别封装为两个函数,然后使用面向对象的特性,将整个爬虫写成一个类
过程是先有getPages方法获取每一页的图片url,然后返回一个url列表给downloadJpg下载函数逐条下载





# 4. 转换颜色

利用numpy,将图片转换为灰度照片,具体代码如下,没啥好说的,不懂的翻一下官方帮助文档



以上代码已经将转换颜色也封装为一个函数,然后添加到类方法中,转换之后的图片存储在另一个文件夹中,完整类代码如下

# -*- coding: utf-8 -*-
import requests
import os
import random
from PIL import Image
from bs4 import BeautifulSoup
import numpy

user_agent = ['Mozilla/5.0(Windows;U;WindowsNT6.1;en-us)AppleWebKit/534.50(KHTML,likeGecko)Version/5.1Safari/534.50',
            'Mozilla/5.0(compatible;MSIE9.0;WindowsNT6.1;Trident/5.0',
            'Mozilla/4.0(compatible;MSIE8.0;WindowsNT6.0;Trident/4.0)',
            'Mozilla/5.0(Macintosh;IntelMacOSX10.6;rv:2.0.1)Gecko/20100101Firefox/4.0.1',
            'Mozilla/5.0(Macintosh;IntelMacOSX10_7_0)AppleWebKit/535.11(KHTML,'
            'likeGecko)Chrome/17.0.963.56Safari/535.11',
            'Mozilla/4.0(compatible;MSIE7.0;WindowsNT5.1;Maxthon2.0)',
            'Mozilla/4.0(compatible;MSIE7.0;WindowsNT5.1;TencentTraveler4.0)',
            'Mozilla/4.0(compatible;MSIE7.0;WindowsNT5.1;Trident/4.0;SE2.XMetaSr1.0;SE2.XMetaSr1.0;.NETCLR2.0.50727'
            ';SE2.XMetaSr1.0)',
            'Mozilla/4.0(compatible;MSIE7.0;WindowsNT5.1;360SE)',
            'Mozilla/5.0(Macintosh;U;IntelMacOSX10_6_8;en-us)AppleWebKit/534.50(KHTML,'
            'likeGecko)Version/5.1Safari/534.50']


class GetBaiduImg(object):
    kw = {'Host': 'image.baidu.com'}
    urls = list()

    def __init__(self, result, n):
      """
      :param result: 输入百度图片搜索的关键词
      :param n: 输入要爬取的页数
      """
      self.downloadJpg(datalist=self.getPages(result, n))
      self.convertColor('./baidu')

    def getPages(self, keyword, pages):
      try:
            GetBaiduImg.kw['user-agent'] = random.choice(user_agent)
            param = list()
            for i in range(30, pages * 30 + 30, 30):
                param.append({'tn': 'resultjson_com', 'ipn': 'rj',
                              'ct': '201326592', 'is': '', 'fp': 'result', 'queryWord': keyword, 'cl': '2',
                              'lm': '-1', 'ie': 'utf-8', 'oe': 'utf-8', 'adpicid': '', 'st': '-1',
                              'z': '', 'ic': '0', 'hd': '', 'latest': '', 'copyright': '',
                              'word': keyword, 's': '', 'se': '', 'tab': '', 'width': '', 'height': '',
                              'face': '0', 'istype': '2', 'qc': '', 'nc': '1', 'fr': '', 'expermode': '',
                              'force': '', 'pn': i, 'rn': '30', 'gsm': '1e', '1597926642252': ''})
            start_url = 'https://image.baidu.com/search/acjson'
            for i in param:
                res = requests.request(method='get', url=start_url, headers=GetBaiduImg.kw, params=i,
                                       proxies={"http": "175.43.58.44:9999"})
                res.raise_for_status()
                res.encoding = res.apparent_encoding
                response = res.content.decode('utf-8')
                for a in response.split('"'):
                  if "https://ss" and ".jpg" and "bdstatic" in a:
                        GetBaiduImg.urls.append(a)
            return set(GetBaiduImg.urls)
      except requests.RequestException as e:
            print('mistake info==>', str(e))

    def downloadJpg(self, datalist, direct='./baidu'):
      if not os.path.exists(direct):
            os.mkdir(direct)
      x = 1
      for data in datalist:
            if len(data):
                print(f'downloading img {data}')
                try:
                  resp = requests.request(method='get', url=data, proxies={"http": "175.43.58.44:9999"})
                  open(f'{direct}/{x}.jpg', 'wb').write(resp.content)
                  x += 1
                except Exception as exp:
                  print("misktake info==>",str(exp))

    def convertColor(self, direct):
      for i in os.listdir(direct):
            im = numpy.array(Image.open(direct + '/' + f'{i}').convert('L')).astype('float')
            print(f"converting img {i} with ", im.shape, im.dtype)
            depth = 10
            grad = numpy.gradient(im)
            grad_x, grad_y = grad
            grad_x = grad_x * depth / 100
            grad_y = grad_y * depth / 100
            A = numpy.sqrt(grad_x ** 2 + grad_y ** 2 + 1)
            uni_x = grad_x / A
            uni_y = grad_y / A
            uni_z = 1 / A
            vec_el = numpy.pi / 2.2
            vec_az = numpy.pi / 4
            dx = numpy.cos(vec_el) * numpy.cos(vec_az)
            dy = numpy.cos(vec_el) * numpy.sin(vec_az)
            dz = numpy.sin(vec_el)
            b = 255 * (dx * uni_x + dy * uni_y + dz * uni_z)
            a = b.clip(0, 255)
            im = Image.fromarray(a.astype('uint8'))
            im.save(direct + '/' + f'[灰度照]{i}')


if __name__ == "__main__":
    baiduimg = GetBaiduImg(result="郁金香", n=1)

最后贴上运行结果







第一篇文章,如有需改进的地方还望指出,下篇会考虑在proxies上下功夫,以及调用mysql等等


grape722 发表于 2020-8-21 21:33

本帖最后由 grape722 于 2020-8-21 21:37 编辑

请教一下楼主,为什么爬下来的全是分辨率低的小图?实际搜索的结果很多大图,但是爬取出来很少有大图。
如图:280多张图片,分辨率不高,好像都是搜索结果里预载入的图片,不是实际大小的。

王小帅先生 发表于 2020-8-22 10:04

学习学习

科迈罗 发表于 2020-8-25 07:55

grape722 发表于 2020-8-21 21:33
请教一下楼主,为什么爬下来的全是分辨率低的小图?实际搜索的结果很多大图,但是爬取出来很少有大图。
如 ...

发起的请求中图片的顺序和看到的顺序肯定有区别,你可以把图片按大小排序之后再试试{:1_893:}
页: [1]
查看完整版本: 简单爬取百度图片并转换为灰度照