吾爱破解 - 52pojie.cn

 找回密码
 注册[Register]

QQ登录

只需一步,快速开始

查看: 2206|回复: 11
收起左侧

[Python 转载] 二手房信息爬取

[复制链接]
wuqi001 发表于 2021-2-22 20:32
本人小白,有什么问题欢迎各位朋友指正

[Python] 纯文本查看 复制代码
# -*- codeing = utf-8 -*-
# [url=home.php?mod=space&uid=238618]@Time[/url] : 2021/2/13 9:29
# [url=home.php?mod=space&uid=686208]@AuThor[/url] : wuqi
# [url=home.php?mod=space&uid=267492]@file[/url] : 链家二手房信息爬虫.py
# [url=home.php?mod=space&uid=371834]@SOFTWARE[/url] :PyCharm

import urllib.request
import urllib.error
import re
from bs4 import BeautifulSoup
import xlwt

findUrl=re.compile(r'<a class="" href="(.+?)" target="_blank"')

savepath = "上海二手房爬虫.xls"
def getUrl():
    baseurl = 'http://sh.lianjia.com/ershoufang/pg'
    url = ''
    urllist = []
    for i in range(1, 5):
        url = baseurl + str(i)
        response = urllib.request.urlopen(baseurl)
        Html = response.read().decode('utf-8')
        url1 = re.findall(findUrl, Html)
        for url in url1:
            urllist.append(url)
    return urllist      #获得所有房子详情页的网页链接,以列表形式
def getData(url,j):
    head = {  # 模拟浏览器头部信息,向服务器发送消息
         "User-Agent": "Mozilla / 5.0(Windows NT 10.0; Win64; x64) AppleWebKit / 537.36(KHTML, like Gecko) Chrome / 80.0.3987.122  Safari / 537.36"
        }
     # 用户代{过}{滤}理,表示告诉服务器,我们是什么类型的机器、浏览器(本质上是告诉浏览器,我们可以接收什么水平的文件内容)
    req=urllib.request.Request(url,headers=head)
    html = ''
    try:
        response = urllib.request.urlopen(url)
        html = response.read().decode('utf-8')
    except urllib.error.URLError as e:
        if hasattr(e,"code"):
            print(e.code)
        if hasattr(e,"reason"):
            print(e.reason)
    bsobj=BeautifulSoup(html,'html.parser')
    Total_prince=bsobj.findAll(class_='total')[0].get_text()
    sheet.write(j,0,Total_prince)
    unit_price=bsobj.findAll(class_='unitPriceValue')[0].get_text()
    sheet.write(j,1,unit_price)
    community=bsobj.select('.communityName>.info ')[0].get_text()
    sheet.write(j,2,community)
    area=bsobj.select('.areaName>.info')[0].get_text()
    sheet.write(j,3,area)
    Total_type=bsobj.select('li span.label')
    for i in range(len(Total_type)):
        sheet.write(j,4+i,Total_type[i].next_sibling)


book = xlwt.Workbook(encoding='utf-8')
sheet = book.add_sheet('二手房信息爬取', cell_overwrite_ok=True)#创建工作表
col=("总价","元/平米","小区","所在区域")
urllist=getUrl()
print(len(urllist))
for i in range(0,4):
    sheet.write(0,i,col[i])
url='http://sh.lianjia.com/ershoufang/107103021426.html'
response = urllib.request.urlopen(url)
html = response.read().decode('utf-8')
bsobj=BeautifulSoup(html,'html.parser')
Total_type=bsobj.select('li span.label')
for i in range(4,15):
    sheet.write(0,i,Total_type[i-4].get_text())     #写入列名
for j in range(len(urllist)):
    try:
        url=urllist[j]
        getData(url,j+1)
        print("第"+str(j+1)+"个房源提取成功")
    except:
        print("第"+str(j+1)+"个房源提取失败")
        continue
book.save(savepath)





发帖前要善用论坛搜索功能,那里可能会有你要找的答案或者已经有人发布过相同内容了,请勿重复发帖。

 楼主| wuqi001 发表于 2021-2-23 15:18
ladybug2020 发表于 2021-2-23 09:09
url='http://sh.lianjia.com/ershoufang/107103021426.html'  这是啥意思?

一个房源的链接,利用这个链接将交易属性的标签写入excel的第一行中
 楼主| wuqi001 发表于 2021-2-23 15:24

从年前开始看书的,正式打代码是从这几天开始的。我只会一些基础的,框架,多线程什么的还有好多没学呢
weizong 发表于 2021-2-22 23:44
ladybug2020 发表于 2021-2-23 09:09
url='http://sh.lianjia.com/ershoufang/107103021426.html'  这是啥意思?
独立电影人 发表于 2021-2-23 14:03
爬取的结果分享一下
 楼主| wuqi001 发表于 2021-2-23 15:21
独立电影人 发表于 2021-2-23 14:03
爬取的结果分享一下

运行一遍就有结果了噻。我只爬了百多个房源
独立电影人 发表于 2021-2-23 16:17
wuqi001 发表于 2021-2-23 15:21
运行一遍就有结果了噻。我只爬了百多个房源

不想分享一下嘛~~
 楼主| wuqi001 发表于 2021-2-23 20:10
excel分享不上来。就打包了一下。

上海二手房爬虫.zip

17.31 KB, 下载次数: 28, 下载积分: 吾爱币 -1 CB

ladybug2020 发表于 2021-2-24 08:48
wuqi001 发表于 2021-2-23 15:18
一个房源的链接,利用这个链接将交易属性的标签写入excel的第一行中

感谢楼主回复。
您需要登录后才可以回帖 登录 | 注册[Register]

本版积分规则

返回列表

RSS订阅|小黑屋|处罚记录|联系我们|吾爱破解 - LCG - LSG ( 京ICP备16042023号 | 京公网安备 11010502030087号 )

GMT+8, 2025-1-16 04:54

Powered by Discuz!

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表