吾爱破解 - 52pojie.cn

 找回密码
 注册[Register]

QQ登录

只需一步,快速开始

查看: 8278|回复: 18
收起左侧

[Python 转载] 【Python爬虫】基于BeautifulSoup的微博图片爬虫

[复制链接]
CloverKids 发表于 2019-11-4 19:41
这个仅是用来记录我的学习过程,若有错误或者其他问题,欢迎指出。
[Python] 纯文本查看 复制代码
import requests
from bs4 import BeautifulSoup

headers = {
    "cookie": "YOUR_COOKIE",       # 请传入cookie
    "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 \
    (KHTML, like Gecko) Chrome/72.0.3626.119 Safari/537.36"
}


class Weibo(object):
    def __init__(self):
        self.uid = "Weibo_UID"      # 请设置微博用户的UID
        self.url = "https://weibo.cn/u/" + self.uid

    def mysql(self):
        pass

    @staticmethod
    def send_request(url):
        r = requests.get(url, headers=headers).content.decode("utf-8")
        return r

    def weibo_infos(self, html):
        parser = self.send_request(html)
        soup = BeautifulSoup(parser, "html.parser")
        weibo_name = soup.find("title").text.replace("的微博", "")
        pages = int(soup.find("div", class_="pa", id="pagelist").input["value"])
        weibo_url_list = ["https://weibo.cn/u/" + self.uid + "?page=%d" % (i+1) for i in range(pages)]
        return weibo_name, pages, weibo_url_list

    def weibo_parser(self, url):
        import re
        pic_id = list()
        get_info = BeautifulSoup(self.send_request(url), "html.parser")
        group_pic = [i["href"] for i in get_info.find_all("a", text=re.compile('组图'))]
        img_id = [i["src"].split("/")[-1] for i in get_info.find_all("img", alt="图片")]
        pic_id += img_id
        for i in group_pic:
            s_soup = BeautifulSoup(self.send_request(i), "html.parser")
            pic_list = [i["src"].split("/")[-1] for i in s_soup.find_all(alt="图片加载中...")]
            pic_id += [j for j in pic_list if j not in pic_id]
        return pic_id

    @staticmethod
    def img_download(name, pic_id, url):
        import os
        path = r"C:\Users\Administrator\%s" % name + "\\"
        if not os.path.exists(path):
            os.makedirs(path)
        try:
            if os.path.exists(path + pic_id):
                print("%s:该张图片已下载!" % pic_id)
            else:
                byte = requests.get(url, headers).content
                with open(path + pic_id, "wb") as f:
                    f.write(byte)
        except Exception as e:
            print(e, "\n下载出错!")

    def main(self):
        total_pics = 0
        weibo_name, pages, weibo_url_list = self.weibo_infos(self.url)
        print("正在爬取 【 %s 】 的微博" % weibo_name)
        print("总共检测到 %d 页" % pages)
        for page, weibo_url in enumerate(weibo_url_list):
            print("正在爬取第 %d 页微博" % (page+1))
            pic_url = ["http://wx1.sinaimg.cn/large/" + pic_id for pic_id in self.weibo_parser(weibo_url)]
            print("抓取第 %d 页微博完成,正在下载图片..." % (page+1))
            for num, pic in enumerate(pic_url):
                print("正在保存:%s" % pic)
                self.img_download(weibo_name, pic.split("/")[-1], pic)
                total_pics += 1
                print(">>>第 %d 张图片<<<\n第 %d 页微博:第 %d 张图片保存成功!" % (total_pics, page+1, num+1))
        print("爬取完成!\n总共下载了 %d 张图片!" % total_pics)


if __name__ == '__main__':
    Weibo().main()

免费评分

参与人数 2吾爱币 +4 热心值 +1 收起 理由
塞北的雪 + 1 用心讨论,共获提升!
苏紫方璇 + 3 + 1 感谢发布原创作品,吾爱破解论坛因你更精彩!

查看全部评分

本帖被以下淘专辑推荐:

  • · 好帖|主题: 549, 订阅: 87

发帖前要善用论坛搜索功能,那里可能会有你要找的答案或者已经有人发布过相同内容了,请勿重复发帖。

 楼主| CloverKids 发表于 2020-4-1 12:46
nicho666 发表于 2020-3-2 17:56
能不能编译成exe文件啊?

使用pyinstaller之类的库可以打包成EXE
万丅冧 发表于 2019-11-4 20:05
zrh1989 发表于 2019-11-4 21:13
Airs_Lau 发表于 2019-11-4 22:20

感谢分享,支持
suiyunye 发表于 2019-11-7 19:55
感谢大大的分享,虽然看不懂
头像被屏蔽
泪水的盐 发表于 2019-11-30 10:43
提示: 作者被禁止或删除 内容自动屏蔽
orcate 发表于 2019-12-6 08:48
mark,正在学习爬虫,谢谢大佬分享
Flytom 发表于 2019-12-6 10:26
会不会被封号?
 楼主| CloverKids 发表于 2020-1-3 19:37

只要你爬取的速度不太快,应该没事吧
 楼主| CloverKids 发表于 2020-1-3 19:38
泪水的盐 发表于 2019-11-30 10:43
请问下cookie是通过什么获得的?会不会过期啊

浏览器抓取
您需要登录后才可以回帖 登录 | 注册[Register]

本版积分规则

返回列表

RSS订阅|小黑屋|处罚记录|联系我们|吾爱破解 - LCG - LSG ( 京ICP备16042023号 | 京公网安备 11010502030087号 )

GMT+8, 2024-11-25 14:41

Powered by Discuz!

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表