好友
阅读权限10
听众
最后登录1970-1-1
|
import requests
import re
import os
if __name__ == "__main__":
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36"
}
#在当下目录下生成文件夹qiutu,用来保存爬取的图片
if not os.path.exists("./qiutu"): #path.exists用来判断目录是否存在
os.mkdir("./qiutu") #生成目录qiutu
#设置一个通用的url模板
url = "https://www.qiushibaike.com/imgrank/page/%d/"
for pageNum in range(1,36):
#构建一个对应页数的url
new_url = format(url%pageNum)
page_text = requests.get(url=new_url,headers=headers).text
ex = r'<div class="thumb">.*?<img src="(.*?)" alt.*?</div>'
img_src_list = re.findall(ex, page_text,re.S)
# print(img_src_list)
for src in img_src_list:
# 拼接网址
src1 = "https:"+src
img_data = requests.get(url=src1,headers=headers).content
# 生成图片名称
img_name = src1.split("/")[-1]
#生成路径
img_Path = "./qiutu/" + img_name
with open(img_Path,"wb")as fp:
fp.write(img_data)
print(img_name,"下载成功") |
免费评分
-
参与人数 1 | 吾爱币 +5 |
热心值 +1 |
收起
理由
|
苏紫方璇
| + 5 |
+ 1 |
欢迎分析讨论交流,吾爱破解论坛有你更精彩! |
查看全部评分
|
发帖前要善用【论坛搜索】功能,那里可能会有你要找的答案或者已经有人发布过相同内容了,请勿重复发帖。 |
|
|
|
|