好友
阅读权限 10
听众
最后登录 1970-1-1
本帖最后由 hahawangzi 于 2020-5-12 15:54 编辑
print("这是第{}页内容".format(str(i)))
r= requests.get(url+str(i)+".html",headers=headers)
soup=BeautifulSoup(r.text,"lxml")
table=soup.find('ul',class_="artlist clearfix")
for j in table.find_all('li',class_="artlist_item"):
dict["游戏名"]=j.find('h4',class_="artlist_title").getText()
dict["网页地址"]=j.find('a',href=re.compile("/artdetail-\d.*")).get('href')
#print(dict)
r2 = requests.get(url2+dict["网页地址"],headers=headers)
soup2=BeautifulSoup(r2.text,'lxml')
table2 = soup2.find('article',class_="article_content")
pan=re.compile("https://pan.baidu.com/.*")
pan2=re.compile("提取码.*")
pan3=re.compile(r'\xa0') #为了去掉匹配后出现的\xa0 用re.sub方法替换掉空格
for s in table2.find_all('p'):
if len(re.findall(pan,str(s.text)))>0:
dict["下载地址"]=str(re.sub(pan3,'',str(re.findall(pan,str(s.text)))))
if len(re.findall(pan2,str(s.text)))>0:
dict["ma"]=str(re.sub(pan3,'',str(re.findall(pan2,str(s.text)))))
wb=Workbook()
ws=wb.active
sheet = wb.create_sheet("switch",0)
sheet.append([dict.get("游戏名"),dict.get("下载地址"),dict.get("ma")])
print(dict)
wb.save("switch1.xlsx")
print("保存成功")
想问下 上图出现怎么多爬出来的数据, sheet.append([dict.get("游戏名"),dict.get("下载地址"),dict.get("ma")]) 但是最后保存的数据,为什么只有最后最后一行 只有绝体绝命4的下载地址 游戏名
我明明是又循环的呀,用文本保存就没问题,这是什么原因啊?
发帖前要善用【论坛搜索 】 功能,那里可能会有你要找的答案或者已经有人发布过相同内容了,请勿重复发帖。