吾爱破解 - 52pojie.cn

 找回密码
 注册[Register]

QQ登录

只需一步,快速开始

查看: 3718|回复: 36
收起左侧

[Python 原创] 抓取知识星球指定日期内容

[复制链接]
锤锤 发表于 2023-7-27 15:39
本帖最后由 锤锤 于 2023-7-27 16:03 编辑

每天看生财的知识星球中风向标很是头疼,数据量太大了,所以一直想着写个小小的工具抓取指定日期的内容,直接看文本,有需要的话再看详情

于是乎快速写了一个抓取的PY,见下方代码

[Python] 纯文本查看 复制代码
import requests
import json
import time
import datetime
from bs4 import BeautifulSoup

def make_api_request(start_time=None):
    url = 'https://api.zsxq.com/v2/hashtags/28514444451481/topics'
    params = {
        'count': 20
    }

    cookie = "填入Cookie"

    headers = {
        'authority': 'api.zsxq.com',
        'accept': 'application/json, text/plain, */*',
        'cookie': cookie,
        'origin': 'https://wx.zsxq.com',
        'referer': 'https://wx.zsxq.com/',
        'sec-ch-ua': '"Not.A/Brand";v="8", "Chromium";v="114", "Microsoft Edge";v="114"',
        'sec-ch-ua-mobile': '?0',
        'sec-ch-ua-platform': 'Windows',
        'sec-fetch-dest': 'empty',
        'sec-fetch-mode': 'cors',
        'sec-fetch-site': 'same-site',
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36',
        'x-request-id': '378351101-680d-dd77-79a7-3a8c5e4a305',
        'x-version': '2.40.0'
        # 'x-signature': '请在这里填写实际的x-signature值',
        # 'x-timestamp': '请在这里填写实际的x-timestamp值'
    }

    if start_time:
        params = {
            'count': 20,
            'end_time': start_time
        }

    response = requests.get(url, params=params, headers=headers)

    if response.status_code == 200:
        data = response.json()
        return data
    else:
        print("请求失败:", response.status_code)
        return None
#下为判断字符串是否为%Y-%m-%d格式,其他格式同理。
def is_valid_date(strdate):
        try:
                time.strptime(strdate, "%Y-%m-%d %H:%M:%S")
                return True
        except:
                return False


# 保存所有的response_data的列表
all_response_data = []

if __name__ == "__main__":
    # 设置设定的时间,例如:2023-07-27 00:00:00
    target_time = input("设置设定的时间,例如:2023-07-27 00:00:00 :")
    if target_time == '' or not is_valid_date(target_time):
        target_time = datetime.datetime.now().strftime('%Y-%m-%d 00:00:00')

    # 循环请求直到create_time小于设定的时间
    start_time = None
    while True:
        response_data = make_api_request(start_time)
        if response_data['succeeded']==False:
            time.sleep(10)
            continue
        # print(response_data)
        topics = response_data['resp_data']['topics']
        if  len(topics) > 0 :
            lens = len(topics) - 1
            topic = topics[lens]
            if response_data and 'create_time' in topic:
                # print(topics)
                # 将response_data保存到列表中
                for item in topics:
                    all_response_data.append("- " + item['talk']['text'])
                create_time = topic['create_time']
                print(create_time)
                if create_time < target_time:
                    break
                start_time = create_time
            else:
                break
        # 添加1秒的延迟
        time.sleep(10)

    print("请求循环结束!")

    # 函数用于从字符串中删除HTML元素
    def remove_html_tags(text):
        soup = BeautifulSoup(text, "html.parser")
        return soup.get_text()

    # 处理列表中的每个字符串并删除HTML元素
    clean_data_list = [remove_html_tags(text).replace('"', '').replace('\n',' ') for text in all_response_data]

    # Save all_response_data to txt file with 'utf-8' encoding
    file_name = datetime.datetime.now().strftime('%H-%M-%S') +".md"
    with open(file_name, 'w', encoding='utf-8') as file:
        for text in clean_data_list:
            file.write(text + "\n")

    print("所有的response_data已保存到txt文件:", file_name)



导入相关依赖库后,替换成你自己的Cookie就可以按时间抓取了,Cookie在这
image.png

导出的效果如下
image.png

免费评分

参与人数 1吾爱币 +7 热心值 +1 收起 理由
苏紫方璇 + 7 + 1 欢迎分析讨论交流,吾爱破解论坛有你更精彩!

查看全部评分

发帖前要善用论坛搜索功能,那里可能会有你要找的答案或者已经有人发布过相同内容了,请勿重复发帖。

pursuit1 发表于 2023-7-31 12:37
这个会导出成文件吗,要是有绿色版本的就好了。会不会被知识星球封号啊
pursuit1 发表于 2023-8-26 02:51
请问下怎么打开星球复制功能(文字和图片)有相关插件好用吗?找了好多都不行。
serpentking 发表于 2023-8-10 22:45
锤锤 发表于 2023-8-10 17:09
第一次请求页面打开默认时倒叙
看了接口逻辑 里面有记录下一个请求的时间段

我是看到抓取知识星球帖子的,请教个问题:我是要爬虫招标信息,页面可以抓取下来,但是我是每2天抓取一次,不知道怎么抓取从我上次抓取的最后一条到今天更新过的信息,设置页面抓取固定页数,就会出现很多重复信息。不知道怎么处理,请指导一下。
serpentking 发表于 2023-8-10 14:55
请教个问题,爬虫运行怎么识别是最新的页面,和以前保存的资料能形成日期连贯的。谢谢了。
pursuit1 发表于 2023-8-10 00:50
锤锤 发表于 2023-8-9 17:52
这个我不是很清楚 因为没有踩到红线 至少现在用着OK 如果担心的话 可以给抓取频率调低一点

好的谢谢,请问下你给的延迟是多少呀,一次抓多少。
py学徒 发表于 2023-7-29 10:37
很赞,分享感谢分享!
gza627 发表于 2023-7-29 11:32
真羡慕你们这些会写代码的程序员
x1n 发表于 2023-7-31 14:35
卧槽。
  
这是真牛皮
壬申 发表于 2023-8-3 15:21
厉害啊   丰富一些会挺实用
 楼主| 锤锤 发表于 2023-8-5 19:38
pursuit1 发表于 2023-7-31 12:37
这个会导出成文件吗,要是有绿色版本的就好了。会不会被知识星球封号啊

请求做了延迟 封号问题不大 导出文件默认是markdown格式
XiaoBai.Q.Q 发表于 2023-8-5 21:29
可以啊,厉害&#128077;
pursuit1 发表于 2023-8-7 18:43
锤锤 发表于 2023-8-5 19:38
请求做了延迟 封号问题不大 导出文件默认是markdown格式

噢噢,一般什么程度会封号啊,我看知乎上好多被封号的,好慌。
 楼主| 锤锤 发表于 2023-8-9 17:52
pursuit1 发表于 2023-8-7 18:43
噢噢,一般什么程度会封号啊,我看知乎上好多被封号的,好慌。

这个我不是很清楚 因为没有踩到红线 至少现在用着OK 如果担心的话 可以给抓取频率调低一点
您需要登录后才可以回帖 登录 | 注册[Register]

本版积分规则

返回列表

RSS订阅|小黑屋|处罚记录|联系我们|吾爱破解 - LCG - LSG ( 京ICP备16042023号 | 京公网安备 11010502030087号 )

GMT+8, 2024-11-24 08:51

Powered by Discuz!

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表