python爬虫-把微博某用户的所有微博存下来防止和谐
本帖最后由 英雄初本涩 于 2022-4-19 18:01 编辑作为币圈韭菜 想看一下关注的大神每天发送了什么微博,之前已经写了一个微博更新推送到微信
为了防止他的微博删除或者被系统和谐,就写了一个把他的微博存到本地的...,当然只存的文字,图片觉得没必要就没处理,需要的话可以加上。这里就以我选的“赚不完亏得完Ryu,uid:6367430139”
2022年4月19日更新:增加图片下载,插入到word文档,图片下载的是高清图,可能会比较大,不想要高清图的请自己修改下图加粗字体的字段item['mblog']['pics']
```
import requests
import json
import time
import docx
from docx.shared import Inches
s = requests.Session()
page = 1
headers = {
"user-agent": "'Mozilla/5.0 (iPhone; CPU iPhone OS 13_2_3 like Mac OS X) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/13.0.3 Mobile/15E148 Safari/604.1'",
}
weekdict = {
'Mon':'星期一',
'Tue':'星期二',
'Wed':'星期三',
'Thu':'星期四',
'Fri':'星期五',
'Sat':'星期六',
'Sun':'星期日',
}
mondict = {
'Jan':'01',
'Feb':'02',
'Mar':'03',
'Apr':'04',
'May':'05',
'Jun':'06',
'Jul':'07',
'Aug':'08',
'Sep':'09',
'Oct':'10',
'Nov':'11',
'Dec':'12',
}
file = docx.Document()# 创建内存中的word文档对象
def getList(since_id=None):
global page
while True:
url = 'https://m.weibo.cn/api/container/getIndex?type=uid&value=6367430139&containerid=1076036367430139&since_id={}'.format(since_id)
res = s.get(url,headers=headers)
r = json.loads(res.text)
since_id = r['data']['cardlistInfo']['since_id']
list = r['data']['cards']
for item in list:
img_url_list = []
if item['mblog']['isLongText']:
if item['mblog']['pic_num']>0:
img_url_list = item['mblog']['pics']
getLongText(file,item['mblog']['id'],item['mblog']['created_at'],img_url_list)
else:
if item['mblog']['pic_num']>0:
img_url_list = item['mblog']['pics']
txt = item['mblog']['text'].replace('<br />', '\n')
writeFile(file,item['mblog']['created_at'], txt,img_url_list)
page = page + 1
time.sleep(2)
file.save("wb.docx")
# 获取全文
def getLongText(file,id,date,imglist):
url = 'https://m.weibo.cn/statuses/extend?id={}'.format(id)
res = s.get(url)
try:
r = json.loads(res.text)
txt = r['data']['longTextContent'].replace('<br />','\n')
writeFile(file,date,txt,imglist)
print(r['data']['longTextContent'])
print('写入成功,{}'.format(url))
except:
print('写入文件出错,跳过···{}'.format(url))
time.sleep(2)
def fotmatDate(s):
list = s.split(' ')
date = '{}-{}-{} {} {}'.format(list[-1], mondict], list, list, weekdict])
return date
def writeFile(file,date,data,imglist):
# with open('微博mobile.txt','a',encoding='utf-8') as f:
# f.write('\n\n')
# f.write(fotmatDate(date))
# f.write('\n')
# f.write(data)
file.add_heading(fotmatDate(date),level=1)
para = file.add_paragraph(data)
run = para.add_run('')
run.add_break()
for item in imglist:
img = s.get(item['large']['url']).content
with open('img.jpg','wb') as f:
f.write(img)
run.add_picture('img.jpg', width=Inches(2))
if __name__ == '__main__':
getList()
```
回复几个问题:
1.containerid哪里来的?
微博翻页的方法很多种,可以自己去网页打开F12去network查看
2.数据还没下载完就停了?
这个原因我也不知道,如果后面没有微博就没有since_id 这时候会停止。我下载的时候也是下载到2020年的就停了,或许可以调大sleep周期试试是否触发微博风控 ,学习一下。
感谢分享{:1_921:} ```
# 下面的t是微博的原始时间格式,created_at字段名
t = "Fri Apr 01 00:40:03 +0800 2022"
def fotmatDate(s):
list = s.split(' ')
date = '{}-{}-{} {}'.format(list[-1], mondict], list, list)
return date
def format_to_time_stamp(s):
t = time.mktime(time.strptime(s, "%Y-%m-%d %H:%M:%S"))
return t
# 这是要输入的月份
month = '2022-04'
start = '{}-01 00:00:00'.format(month)
end = '{}-30 23:59:59'.format(month)
date = fotmatDate(t)
date_timestamp = format_to_time_stamp(date)
start_timestamp = format_to_time_stamp(start)
end_timestamp = format_to_time_stamp(end)
if date_timestamp >start_timestamp and date_timestamp < end_timestamp:
print('范围内,写入文件')
# writeFile(file,date,txt) 写入文件之前判断一下date是否在范围内
``` 这个好用,再也不用担心删了赖账了。 感谢分享源码,正好在学py 这个不错,学习一下。 感谢分享源码,学习一波 学习学习 感谢,有一份可以参考的源码 学习一下 鸡精股票就等着被割韭菜吧