吾爱破解 - 52pojie.cn

 找回密码
 注册[Register]

QQ登录

只需一步,快速开始

查看: 3835|回复: 23
收起左侧

[Python 转载] Python自学小试身手之某笔趣阁小说下载

  [复制链接]
FeiyuYip 发表于 2021-5-14 00:56
本帖最后由 FeiyuYip 于 2021-5-14 01:27 编辑

我又来啦!!
今天尝试爬取某笔趣阁小说下载,有两个选项:1是自动下载全站完本小说,2是根据输入网址下载单本小说。思路部分参考@Raohz520的https://www.52pojie.cn/forum.php?mod=viewthread&tid=1425753&highlight=%B1%CA%C8%A4%B8%F3这个帖子,代码是全部是自己写的。大家可以对比看看。
区别在于:1.将小说按类别放在文件夹中;2.整本小说保存在一个txt文档,而非一个章节放一个txt文档,方便转到手机阅读。

本人还是新手,将学习的过程发出来,希望与大家共同进步,请各位大佬轻拍!!
运行界面如下:
2.png
1.png
代码如下:
import requests
from lxml import etree
import time
import os
import random

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36'
}

filePath = '.\笔趣阁全站小说'

def getPageInfo(url):
    try:
        html = requests.get(url=url, headers=headers)
        html.encoding = 'utf-8'
        if html.status_code == 200:
            return html.text
        return None
    except Exception:
        return None

# 下载全站完本小说
def downloadAllNovels(html):
    seclector1 = etree.HTML(html)
    # 获取小说页面的页数
    page_list = seclector1.xpath('//div[@class="pagelink"]/a[@class="last"]/text()')[0]
    # 获取每一页的链接
    for i in range(1, int(page_list)):
        # 每一页的链接
        url_single_page = 'https://www.biquwx.la/wanjiexiaoshuo/' + str(i)
        content = getPageInfo(url_single_page)
        seclector2 = etree.HTML(content)

        # 每一本小说链接
        single_novels = seclector2.xpath('//*[@id="main"]/div[1]/ul/li')
        for single_novel in single_novels:
            # 链接
            single_novel_address = single_novel.xpath('span[2]/a/@href')[0]
            # 执行下载单本小说函数
            downloadSingleNovel(single_novel_address)

# 下载单本小说
def downloadSingleNovel(html):
    # 获取每一本小说的信息
    content = getPageInfo(html)
    seclector = etree.HTML(content)
    # 小说名
    novel_title = seclector.xpath('//*[@id="info"]/h1/text()')[0]
    # 小说作者
    novel_author = seclector.xpath('//*[@id="info"]/p[1]/text()')[0]
    # 小说类别
    novel_category = seclector.xpath('//*[@id="info"]/p[2]/text()')[0].split(':')[1]

    # 按小说类别建立文件夹
    filePath_novel_category = filePath + '/' + novel_category
    if not os.path.exists(filePath_novel_category):
        os.mkdir(filePath_novel_category)

    # 小说简介
    _novel_introduce = seclector.xpath('//*[@id="intro"]/p[1]/text()')
    novel_introduce = ''
    for _ in _novel_introduce:
        novel_introduce += _ + '\n'

    #  先将小说名、作者、简介写入txt文件,并保存到相应类别的文件夹中
    with open(filePath_novel_category + '/' + novel_title + '.txt', 'a+', encoding='utf-8') as f:
        f.write('    ' + novel_title + '\n\n')
        f.write('    ' + novel_author + '\n\n')
        # f.write('     ' + novel_category + '\n')
        f.write(novel_introduce + '\n')

    # 获取小说章节链接
    _novel_chapter_name_address = seclector.xpath('//*[@id="list"]/dl/dd')
    for _ in _novel_chapter_name_address:
        # 章节链接
        novel_chapter_address = html + _.xpath('a/@href')[0]

        # 获取每一章节的章节名及正文
        content3 = getPageInfo(novel_chapter_address)
        seclector4 = etree.HTML(content3)
        # 章节名
        novel_chapter_name = seclector4.xpath('//*[@id="wrapper"]/div[5]/div/div[2]/h1/text()')[0]
        # 每一章节的正文
        _single_chapter_content = seclector4.xpath('//*[@id="content"]/text()')
        single_chapter_content = ''
        for _ in _single_chapter_content:
            single_chapter_content += _

        with open(filePath_novel_category + '/' + novel_title + '.txt', 'a+', encoding='utf-8') as f:
            # 添加章节名
            f.write('    ' + novel_chapter_name)
            # 添加章节内容
            f.write('    ' + single_chapter_content)
        print('%s %s 下载完成' % (novel_title, novel_chapter_name))
    print('____________')
    print('%s 下载完成' % novel_title)

def main():
    # 创建文件夹:笔趣阁全站小说
    if not os.path.exists(filePath):
        os.mkdir(filePath)

    print('下载全站完本小说,请输入1;按需下载单本小说,请输入2')
    if input() == '1':
        url = 'https://www.biquwx.la/wanjiexiaoshuo/'
        html = getPageInfo(url)
        downloadAllNovels(html)
        time.sleep(random.uniform(0.05, 0.2))
    else:
        print('请输入需要下载的小说网址(目录页):')
        html = input()
        downloadSingleNovel(html)
        time.sleep(random.uniform(0.05, 0.2))

if __name__ == '__main__':
    main()

免费评分

参与人数 7吾爱币 +5 热心值 +6 收起 理由
虾米传说 + 1 + 1 用心讨论,共获提升!
騇钚得离去 + 1 我很赞同!
lxhyjr + 1 + 1 谢谢@Thanks!
woyucheng + 1 + 1 谢谢@Thanks!
hewang123 + 1 谢谢@Thanks!
netspirit + 1 热心回复!
joneqm + 1 + 1 用心讨论,共获提升!

查看全部评分

发帖前要善用论坛搜索功能,那里可能会有你要找的答案或者已经有人发布过相同内容了,请勿重复发帖。

QQending 发表于 2021-5-14 10:18
本帖最后由 QQending 于 2021-5-14 10:22 编辑

[Python] 纯文本查看 复制代码
import re
# 预先编译好,多次执行效率高
path_forbid_char = re.compile(r"['\\/:*?\"<>|]")  # '/ \ : * ? " < > |'

def validateTitle(title):
    new_title = path_forbid_char.sub( "_", title)  # 替换为下划线
    return new_title


我印象中[]内不需要通过\来防止产生转义,除了不能在符号]前用\,
防止引号("和')打断字符串的引号。
另外字符串最后一个引号前面也不要出现\,之前看老男孩教程时候,就看到老师当场翻车。
所以又测试了一下,csdn上找到那份写的\有点多

如果正则频繁使用,可以通过re.compile事先编译好。
不过好像re模块默认也会启动缓存,具体效率对比我也没试过=。=


以下为测试用的代码
[Python] 纯文本查看 复制代码
import re

path_forbid_char = re.compile(r"['\\/:*?\"<>|]")
chars = "'\/:*?\"<>|"

if __name__ == '__main__':
    ret = path_forbid_char.sub("_", chars)
    print(ret)
QQending 发表于 2021-5-14 09:38
本帖最后由 QQending 于 2021-5-14 10:10 编辑

python3默认返回的就是None,所以如果设定条件返回的话,不建议再写为return None了。
另外,笔趣阁的书标题应该是纯字符的,有些网站的书名会有一些文件名禁用的字符
[Python] 纯文本查看 复制代码
import re
def validateTitle(title):
    path_forbid_char = re.compile(r"['\\/:*?\"<>|]")
    new_title = path_forbid_char.sub( "_", title)  # 替换为下划线
    return new_title

从csdn找了一些别人写的正则替换
lanzhe00 发表于 2021-5-14 02:45
aiLT 发表于 2021-5-14 06:09
学了多久有这个效果呀,大佬
wlbxx341 发表于 2021-5-14 06:34
这个怎么用?代码搞不懂,纯小白
kof888 发表于 2021-5-14 06:57
想问一下这种有用c或者c++写的吗?
Mr-Golden-Week 发表于 2021-5-14 07:07
前来向大佬学习一下
tdfynslh 发表于 2021-5-14 08:17
学习了,谢谢楼主,多看案例有助于学习。
 楼主| FeiyuYip 发表于 2021-5-14 08:36
aiLT 发表于 2021-5-14 06:09
学了多久有这个效果呀,大佬

断断续续学习一个月左右
 楼主| FeiyuYip 发表于 2021-5-14 08:37
tdfynslh 发表于 2021-5-14 08:17
学习了,谢谢楼主,多看案例有助于学习。

注释得很清楚了
南归不NG 发表于 2021-5-14 08:42
笔趣阁:又来?
您需要登录后才可以回帖 登录 | 注册[Register]

本版积分规则

返回列表

RSS订阅|小黑屋|处罚记录|联系我们|吾爱破解 - LCG - LSG ( 京ICP备16042023号 | 京公网安备 11010502030087号 )

GMT+8, 2024-11-25 16:32

Powered by Discuz!

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表