p794639 发表于 2021-1-22 22:51

【python实战】【持续更新】爬取某发卡网订单

本帖最后由 p794639 于 2021-1-22 23:48 编辑

>作者:小白一枚@p794639
> 发布平台:吾爱破解论坛
> 请勿转载到其他平台



上次写完某福利网站爬虫突然想试试发卡网,然后就开始了爬虫不归路
:loveliness:网站已打码,代码拿出来大家一起学习讨论,有问题的地方还请大佬不吝赐教{:1_893:}
学习内容


爬取某发卡网的购买记录.(初步考虑穷举法爬取)

学习过程
添加必要的库,创建一个BUY类

                importrequests,re,xlwt
               
class Color:


    def __init__(self):
      '''添加请求头'''
      self.headers = {
            'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 '
                        '(KHTML, like Gecko) Chrome/87.0.4280.141 Safari/537.36',
      }
      #添加查询订单地址
      self.port = 'http://xxxxxx.xxfaka.cn/?mod=query&data=xxxxxxxxxxx'

    '''请求视频网页链接'''
    def request_link(self):
      self.response = requests.get(self.port, headers=self.headers)
      self.html = self.response.text
      print(self.html)
                              
      if __name__ == '__main__':
      app= Color()
      app.request_link()
>** 直接运行发现拿到的数据是这样的(有点多就不全显示了)**

var sec_defend_time……etCookie'sec_defend_time'…[][+!![]]+![]+[][+…

> **后来搜了点资料发现可能需要加cookie,然后又去网页找到cookie添加到请求头,然后headers就成这样了**

      self.headers = {
                                                      'Cookie':'mysid=bcd178f6a7784bdaf63c03e321cfb77a; PHPSESSID=gml9nd9psrik73840v6jem6mm4; sec_defend=baa2a7703f2f3326fa7a366428aef295ac40ff679f2fec0284578de88e87bcac; sec_defend_time=1',
                                                      'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 '
                                                                                                                '(KHTML, like Gecko) Chrome/77.0.3560.141 Safari/537.36',
                                        }
                                       
> ** 我们再次运行代码就可以拿到网页数据了**

> **初步打算一次直接匹配一个订单全部消息,但是发现有对括号导致一直匹配内容为空**

      </span>(<font size="2" color="#836FFF">2020-12-24 01:09:09</font>)<br>…太长了…<hr>
      
      
> 我用俩个replace将括号替换为空

      self.html = self.html.replace('(','')
      self.html = self.html.replace(')', '')
      re.findall(r'…(.*?)…(.*?)…',self.html)
就这样直接匹配了六七个(.*?)内容,发现总是不能准确扣到具体内容,有可能好几条订单被扣到一个(.*?)里面。于是就换了个思路,一条语句扣一个内容,之后在for循环将对应数据放到一个列表,然后整体再放入列表组成二维列表

                #获取订单时间
                self.order_time = re.findall(r'<font size=".*?" color="#836FFF">(.*?)</font>.*?<br><h4>商品名称:<a href="\./\?mod=buy&tid=\w?\w?\w?\w?">(.*?)</a></h4>联系方式:.*?总价<font color=".*?">(.*?)</font>元.*?</strong></font>(.*?)<hr>',self.html)
      #获取商品名称
      self.pur_info = re.findall(r'',self.html)
      #获取订单联系方式
      self.contact_info = re.findall(r'',self.html)
      #获取订单总价
      self.price_total = re.findall(r'总价<font color=".*?">(.*?)</font>元',self.html)
      #获取账号不完全信息
      self.km_info = re.findall(r'</strong></font>(.*?)<hr>',self.html)
      #获取下单总数
      self.num_total = re.findall(r'<li><span class="rows">共(.*?)条</span> </li>', self.html)
                temp_info =[]
            for i in range(0,len(self.order_time)):
                        for lie in range(0,6):#lie
                              temp_info.append(self.order_time)
                              temp_info.append(self.pur_info)
                              temp_info.append(self.contact_info)
                              temp_info.append(self.price_total)
                              temp_info.append(self.km_info)
                              temp_info.append(self.num_total)
                        temp_info.append(''.join(temp_info))
                        self.account_info.append(list(temp_info))
                print(self.account_info)
写出来基本就是上面这样,运行发现四五秒以后直接卡死,然后,,,,半小时没动断点重新开机了,代码没保存今天再运行append那就报错了,想了半天没想出来就打算放弃这种方法,重新回到之前的思路,把数据一次都提取出来,既然这单个的都准确提取了,没准放到一起就可以了呢。想到就做把每个放到一起连接起来运行,结果直接生成了二维数据,成了!!!

> 然后我们开始转二维列表

      for i in range(0,len(self.info)):
                self.info = list(self.info)
               
      #通过这里来判断订单的三种情况
      km_info = re.findall(r'>账号信息:(.*?)</b><br>',self.info)
      if km_info==[]:
                km_info = re.findall(r'</b><span class="(.*?)">卡密可能漏发,请联系客服</span>',self.info)
      if km_info == []:
                km_net = re.findall(r'<br>卡密操作:<a href=".(.*?)" title="点击查看卡密"><button', self.info)
                km_net = self.port +(''.join(km_net))#多张卡密提取链接
                #尚未完成一个单子多张卡密提取
      self.info = km_info
      
      
> 到这里就初步的提取工作就完成了




PS:后面写的代码目前还没到自己想要的效果就先不放了,帖子后续会持续更新


https://static.52pojie.cn/static/image/hrline/1.gifhttps://static.52pojie.cn/static/image/hrline/1.gif

发帖不易,小伙伴给个免费的评分,支持我一下,非常感谢

https://static.52pojie.cn/static/image/hrline/2.gifhttps://static.52pojie.cn/static/image/hrline/2.gif

lanmao999 发表于 2021-1-22 23:26

牛逼的操作{:1_893:}

p794639 发表于 2021-1-22 22:54

温柔的笑 发表于 2021-1-22 22:53
我是第一个看完的吗?咋没人评论

应该是吧,这个点好多都休息了

温柔的笑 发表于 2021-1-22 22:53

我是第一个看完的吗?咋没人评论

吾心随风 发表于 2021-1-22 23:15

感谢分享!

FANGWJ 发表于 2021-1-22 23:41

进来学习一下

zhengxinjun 发表于 2021-1-23 00:16

我还是没学会 看不懂

huamu 发表于 2021-1-23 01:10

感谢分享!

我叫蛋dan 发表于 2021-1-23 01:11

有一说一 想学爬虫看看

zcx200601 发表于 2021-1-23 01:18

支持夜猫族
页: [1] 2
查看完整版本: 【python实战】【持续更新】爬取某发卡网订单