python爬虫爬一个兼职网
本帖最后由 wushaominkk 于 2019-7-15 10:18 编辑今天是接触爬虫的第二天,第一天遇到这个网站,但是被403了,但是今天学的知识完全可以弥补我昨天的坑,于是为了践行从哪里跌倒就要从哪里爬起来的理念,今天我就爬它了!!!
一开始犯了两个错误,一个是用了wb写入,导致我内容根本写不进去,一直报错,第二个是我将ope代码块写入了for循环里面,导致只打印了最后一行,因为w就是如果内容存在就覆盖,没文件创建
见源码,有些小问题需要大牛指教一下
import urllib.request
import re
url = "http://qq.ssjzw.com/"
headers = ('User-Agent',"Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36")
opener = urllib.request.build_opener()
opener.addheaders =
data = opener.open(url).read().decode("GBK")
tj = '<li>类型:(.*?)</li><li>(.*)</li>'
p = re.compile(tj).findall(str(data))
file = open("兼职群.txt" ,"w",encoding="utf-8")
for i in range(len(p)):
dawa = str(p) #这个地方我不知道为什么需要把它转换为str,这里索引取的值是一个元组,我直接进行拼接会报错
file.write(dawa + "\n") #最后写入文件是元组的样子,类型是字符串,不知道如何去括号
print("------打印完成------")
file.close() Hoa 发表于 2019-7-14 16:04
我也刚开始学爬虫,在爬easyicon网站,发现爬几十张图片就要求被验证一下。。。不知道怎么处理
设置 随机请求头 或 整个ip代{过}{滤}理池 这样 别验证的几率应该会小很多 Hoa 发表于 2019-7-14 16:04
我也刚开始学爬虫,在爬easyicon网站,发现爬几十张图片就要求被验证一下。。。不知道怎么处理
随机 headers ,或者随机ip就得了~ 去括号?用.strip()试试,或者用替换.replace() 好的谢谢 感谢分享,代码已收藏。 我也刚开始学爬虫,在爬easyicon网站,发现爬几十张图片就要求被验证一下。。。不知道怎么处理 BeautifulSoup
库函数find_all() 嗯,学习学习 dawa = str(p).replace(r"(",'').replace(r")",'')# 去掉左右括号
建议文件用with open as ...的格式,在文件用完之后会自动释放,其次这个request库不太好用,推荐看看requests
页:
[1]
2