吾爱破解 - 52pojie.cn

 找回密码
 注册[Register]

QQ登录

只需一步,快速开始

查看: 2490|回复: 37
上一主题 下一主题
收起左侧

[Python 原创] 初学批量爬取网站图片

  [复制链接]
跳转到指定楼层
楼主
w24 发表于 2023-11-21 21:40 回帖奖励
爬虫的介绍以及原理等等七七八八的东西我就不多bb了,咋们直接上教程本案例我就以 彼岸图网 这个网站做教程,原网址下方链接https://pic.netbian.com/
首先打开咋们的网站可以看到有很多好看的图片,一页的图片我们右键选择检查或者直接按F12来到控制台

点击左上角的箭头或者快捷键ctrl+shift+c,然后随便点在一张图片上面这时候我们就能看到这张图片的详细信息,src后面的链接就是图片的链接,将鼠标放到链接上就能看到图片,这就是我们这次要爬的一、导入相关库(requests库)
import requests
requests翻译过来就是请求的意思,用来向某一网站发送请求

二、相关的参数(url,headers)
我们回到刚刚的控制台,点击上方的Network,按下ctrl+r刷新,随便点开一张图片这里我们只需要到两个简单的参数,本次案例只是做一个简单的爬虫教程,其他参数暂时不考虑
参数作用
Request URL发送请求的网站地址,也就是图片所在的网址
user-agent用来模拟浏览器对网站进行访问,避免被网站监测出非法访问参数代码的准备

url = "https://pic.netbian.com/uploads/allimg/210317/001935-16159115757f04.jpg"
headers = {

    "user-agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36"

}

三、向网站发出请求


response = requests.get(url=url,headers=headers)
print(response.text) # 打印请求成功的网页源码,和在网页右键查看源代码的内容一样的

这时候我们会发现乱码?!!!!这其实也是很多初学者头疼的事情,乱码解决不难


# 通过发送请求成功response,通过(apparent_encoding)获取该网页的编码格式,并对response解码
response.encoding = response.apparent_encoding
print(response.text)

看着这些密密麻麻的一大片是不是感觉脑子要炸了,其实我们只需要找到我们所需要的就可以了


四、匹配(re库,正则表达式)


什么是正则表达式?简单点说就是由用户制定一个规则,然后代码根据我们指定的所规则去指定内容里匹配出正确的内容


我们在前面的时候有看到图片信息是什么样子的,根据信息我们可以快速找到我们要的




接下来就是通过正则表达式把一个个图片的链接和名字给匹配出来,存放到一个列表中


import re
"""
. 表示除空格外任意字符(除\n外)
* 表示匹配字符零次或多次
? 表示匹配字符零次或一次
.*? 非贪婪匹配
"""
# src后面存放的是链接,alt后面是图片的名字
# 直接(.*?)也是可以可以直接获取到链接,但是会匹配到其他不是我们想要的图片
# 我们可以在前面图片信息看到链接都是/u····开头的,所以我们就设定限定条件(/u.*?)这样就能匹配到我们想要的
parr = re.compile('src="(/u.*?)".alt="(.*?)"')
image = re.findall(parr,response.text)
for content in image:
    print(content)


这样我们的链接和名字就存放到了image列表中了,通过打印我们可以看到以下内容


image[0]:列表第一个元素,也就是链接和图片
image[0][0]:列表第一个元素中的第一个值,也就是链接
image[0][1]:列表第一个元素中的第二个值,也就是名字




五、获取图片,保存到文件夹中(os库)
首先通过os库创建一个文件夹(当前你也可以手动在脚本目录创建一个文件夹)


import os
path = "彼岸图网图片获取"
if not os.path.isdir(path):
    ok.mkdir(path)

然后对列表进行遍历,获取图片


# 对列表进行遍历
for i in image:
    link = i[0] # 获取链接
    name = i[1] # 获取名字
    """
    在文件夹下创建一个空jpg文件,打开方式以 'wb' 二进制读写方式
    @Param res:图片请求的结果
    """
    with open(path+"/{}.jpg".format(name),"wb") as img:
        res = requests.get(link)
        img.write(res.content) # 将图片请求的结果内容写到jpg文件中
        img.close() # 关闭操作
    print(name+".jpg 获取成功······")

运行我们就会发现报错了,这是因为我们的图片链接不完整所导致的


我们回到图片首页网站,点开一张图片,我们可以在地址栏看到我们的图片链接缺少前面部分,我们复制下来 https://pic.netbian.com


在获取图片的发送请求地址前加上刚刚复制的https://pic.netbian.com
运行,OK,获取完毕
完整代码:



import requests
import re
import os


url = "https://pic.netbian.com/"
headers = {
    "user-agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36"
}


response = requests.get(url=url,headers=headers)
response.encoding = response.apparent_encoding


"""
. 表示除空格外任意字符(除\n外)
* 表示匹配字符零次或多次
? 表示匹配字符零次或一次
.*? 非贪婪匹配
"""
parr = re.compile('src="(/u.*?)".alt="(.*?)"') # 匹配图片链接和图片名字
image = re.findall(parr,response.text)


path = "彼岸图网图片获取"
if not os.path.isdir(path): # 判断是否存在该文件夹,若不存在则创建
    os.mkdir(path) # 创建
   
# 对列表进行遍历
for i in image:
    link = i[0] # 获取链接
    name = i[1] # 获取名字
    """
    在文件夹下创建一个空jpg文件,打开方式以 'wb' 二进制读写方式
    @param res:图片请求的结果
    """
    with open(path+"/{}.jpg".format(name),"wb") as img:
        res = requests.get("https://pic.netbian.com"+link)
        img.write(res.content) # 将图片请求的结果内容写到jpg文件中
        img.close() # 关闭操作
    print(name+".jpg 获取成功······")

image.png (1.25 MB, 下载次数: 1)

1

1

image.png (1.09 MB, 下载次数: 0)

2

2

image.png (313.04 KB, 下载次数: 0)

3

3

image.png (75.29 KB, 下载次数: 1)

4

4

image.png (487.05 KB, 下载次数: 1)

5

5

image.png (244.46 KB, 下载次数: 0)

6

6

免费评分

参与人数 2吾爱币 +2 热心值 +2 收起 理由
zclll + 1 + 1 我很赞同!
我来了老大 + 1 + 1 我很赞同!

查看全部评分

本帖被以下淘专辑推荐:

发帖前要善用论坛搜索功能,那里可能会有你要找的答案或者已经有人发布过相同内容了,请勿重复发帖。

推荐
xiaofu666 发表于 2023-11-22 15:23
看完楼主的代码发现没有按页面需求下载的,自己就冒昧用笨拙的代码添加了一下按页面需求下载的功能,如有更好的改进,麻烦指教一下,代码如下:

[Python] 纯文本查看 复制代码
import urllib.request
from lxml import etree
import os

def creat_request(page):
    if (page==1):
      url='https://pic.netbian.com/index.html'
    else:
      url='https://pic.netbian.com/index_'+str(page)+'.html'

    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/95.0.4638.69 Safari/537.36'
    }
    
    # 创建请求对象
    request = urllib.request.Request(url=url, headers=headers)
    return  request

def get_page(request):
    # 发送请求并获取响应
    response = urllib.request.urlopen(request)
    # 读取响应内容
    content = response.read().decode('gbk')
    return content

def dow_load(content):
    if not os.path.exists('美图'):
     os.makedirs('美图')
   
    tree=etree.HTML(content)
    # 提取图片地址和名称
    src_list=tree.xpath('//ul/li/a//img/@src')
    name_list=tree.xpath(('//ul/li/a//img/@alt'))
    
    # 下载图片
    for i in range(len(src_list)):
         src=src_list[i]
         name=name_list[i]
         url='https://pic.netbian.com'+src
         filename = '美图/'+name + str(i+1)+ '.jpg'
         urllib.request.urlretrieve(url=url,filename=filename)
         print(name+'.jpg 下载完成')

if __name__ == '__main__':
    start_page=int(input('请输入下载的起始页:'))
    end_page = int(input('请输入下载的结束页:'))

    for page in range(start_page,end_page+1):
        # 创建请求对象
        request =creat_request(page)
        # 获取源码
        content=get_page(request)
        # 下载文件
        dow_load(content)

1700637604159.jpg (684.54 KB, 下载次数: 0)

下载3页的图片

下载3页的图片
沙发
 楼主| w24 发表于 2023-11-21 21:43 |楼主
初来驾到,编排有问题,下次注意

点评

帖子是可以重新编辑的,本区置顶帖有插入代码的方法帖子  详情 回复 发表于 2023-11-22 00:08
3#
苏紫方璇 发表于 2023-11-22 00:08
w24 发表于 2023-11-21 21:43
初来驾到,编排有问题,下次注意

帖子是可以重新编辑的,本区置顶帖有插入代码的方法帖子
4#
zjtzjt 发表于 2023-11-22 00:27
感谢分享, 涨知识了
5#
xxggla666 发表于 2023-11-22 07:01
可以可以学习学习
6#
leit0521 发表于 2023-11-22 07:19
准备学习爬虫,感谢楼主分享技术
7#
diwuc 发表于 2023-11-22 08:09
学习了学习了
8#
sy8356 发表于 2023-11-22 08:16
学习了,谢谢分享
9#
lxhhez 发表于 2023-11-22 08:33
感谢分享
10#
anaximan 发表于 2023-11-22 08:37
虽然看不懂,但是感觉很强大。。。。。
您需要登录后才可以回帖 登录 | 注册[Register]

本版积分规则

返回列表

RSS订阅|小黑屋|处罚记录|联系我们|吾爱破解 - LCG - LSG ( 京ICP备16042023号 | 京公网安备 11010502030087号 )

GMT+8, 2024-11-22 08:22

Powered by Discuz!

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表