吾爱破解 - 52pojie.cn

 找回密码
 注册[Register]

QQ登录

只需一步,快速开始

查看: 3811|回复: 16
收起左侧

[学习记录] (学习笔记)学习最简单的爬虫,爬取小说

[复制链接]
鸣蜩十四 发表于 2021-8-28 15:26
[Python] 纯文本查看 复制代码
import requests
from lxml import etree

def book():
    url = "https://www.xbiquge.la/56/56564/"   #我这里随便找了个盗版小说网站以一本小说举例
    proxy={
        "https": "xxxx"         #可以加自己的代{过}{滤}理地址 ,如果不想加,可以把下面的proxies都删掉
    }
    response = requests.get(url,proxies=proxy)    #获取url
    response.encoding='utf-8'       #指定字符编码为utf-8
    html=etree.HTML(response.text)  #解析网站的源码
    url_list = html.xpath('//div[@id="list"]/dl/dd/a/@href')
    name_list = html.xpath('//div[@id="list"]/dl/dd/a/text()')
    fp = open("大奉打更人.txt",'w',encoding='utf-8')
    for ur,na in zip(url_list,name_list):
        print(f'https://www.xbiquge.la{ur}')
        res = requests.get(f'https://www.xbiquge.la{ur}',proxies=proxy)   #f'' 以 f开头表示在字符串内支持大括号内的python 表达式
        res.encoding='utf-8'
        res_html = etree.HTML(res.text)
        info = res_html.xpath('//div[@id="content"]/text()')
        fp.write(f'{na}\n\n]')
        print(f'{na}__{ur}')
        for i in info :
            i = i.replace(u'\xa0','').replace('\n\n','\n')      #r"" 的作用是去除转义字符 .replace(old, new[, max]) \xa0 是不间断空白符  
            if i == '\r' :              #\r 表示将光标的位置回退到本行的开头位置 用来消除空行
                continue
            fp.write(i)
        fp.write('\n\n')
    fp.close()

if __name__ == '__main__' :
    book()

免费评分

参与人数 6吾爱币 +4 热心值 +5 收起 理由
lemon。 + 1 用心讨论,共获提升!
lymzzy + 1 我很赞同!
金色枫叶 + 1 + 1 谢谢@Thanks!
scjian + 1 + 1 我很赞同!
whm12300 + 1 谢谢@Thanks!
xiaovssha + 1 + 1 热心回复!

查看全部评分

发帖前要善用论坛搜索功能,那里可能会有你要找的答案或者已经有人发布过相同内容了,请勿重复发帖。

ysjd22 发表于 2021-8-28 18:31
支持支持。学习一下看看
浮华时年 发表于 2021-8-28 19:46
金色枫叶 发表于 2021-8-28 20:11
shitinghui2021 发表于 2021-8-28 21:01
厉害啊!
 楼主| 鸣蜩十四 发表于 2021-8-28 23:37
金色枫叶 发表于 2021-8-28 20:11
朋友 能告知怎么用吗?

这只是最简单的,只能爬取特定的小说,你可以把这个再加强些,直接爬取一个网站的所有小说,像现在的盗版小说网站都是互相爬的小说,然后你自己搭建一个小说网站,用爬虫自己爬小说,然后自己网站接收,就是又一个盗版小说网站了
 楼主| 鸣蜩十四 发表于 2021-8-28 23:41
金色枫叶 发表于 2021-8-28 20:11
朋友 能告知怎么用吗?

至于使用就是可以把url改一下,如果是我上面示例的盗版网站的话,只需要把url的地址改成你想要的小说就行,然后不使用daili的话就把下面的proxies的属性全部删除就能自动爬取你想看的小说的全部章节,如果想看别的网站的话,除了url之外,下面的html.xpath可能都要改根据不同的网站,过滤规则也需要更改
风在这里停 发表于 2021-8-29 15:53
鸣蜩十四 发表于 2021-8-28 23:37
这只是最简单的,只能爬取特定的小说,你可以把这个再加强些,直接爬取一个网站的所有小说,像现在的盗版 ...

你在教人犯罪,现在版权意识很强了
 楼主| 鸣蜩十四 发表于 2021-8-29 17:25
风在这里停 发表于 2021-8-29 15:53
你在教人犯罪,现在版权意识很强了

emm,抱歉,抱歉,说错了,当然不提倡这样干,只是一种思路
v4alvv 发表于 2021-9-3 17:58
鸣蜩十四 发表于 2021-8-28 23:37
这只是最简单的,只能爬取特定的小说,你可以把这个再加强些,直接爬取一个网站的所有小说,像现在的盗版 ...

额,不要教会别人走不归路啊,可以爬自己中意的那一部就行,你不知道盗版网站之间,举报很厉害
您需要登录后才可以回帖 登录 | 注册[Register]

本版积分规则

返回列表

RSS订阅|小黑屋|处罚记录|联系我们|吾爱破解 - LCG - LSG ( 京ICP备16042023号 | 京公网安备 11010502030087号 )

GMT+8, 2024-11-25 16:34

Powered by Discuz!

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表