woaipojiene 发表于 2021-2-25 12:25

意林杂志网站

在kinndle上想看一些意林杂志
可惜kinndle无法识别pdf
只能手动爬取意林.txt格式的
下面是我的爬虫代码,比较低级,好久不复习爬虫,忘了很多
import requests
from lxml import etree

class Zazhi:
    def __init__(self):
      self.url = 'https://www.yilinzazhi.com/'
      self.item = {}
      self.headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36"}

    def parse_url(self,url):
      response = requests.get(url=url,headers=self.headers)
      return response.content.decode('utf-8',errors='ignore')

    def handle_html_str(self,html_str):
      html = etree.HTML(html_str)
      return html

    def get_list_url(self,html_str):
      """
      :paramhtml_str:前端页面的html字符
      :return: list_url:20xx 年 x 期的列表url
      """
      list_url = []
      html = self.handle_html_str(html_str)
      div_list = html.xpath("//td[@class='time']")
      for div in div_list:
            list_url.append(r"https://www.yilinzazhi.com/" + div.xpath("./a/@href")[0])
      return list_url

    def get_title_list_url(self,list_url):
      """
      :param list_url: 20xx 年 x 期的列表url
      :return: content_url_list 内容页url列表
      """
      content_url_list = []
      for url in list_url[:60]:
            print(url)
            base_url = url.replace("index.html","")
            html_str = self.parse_url(url)
            html = self.handle_html_str(html_str)
            div_list = html.xpath("//span[@class='maglisttitle']")
            for div in div_list:
                content_url_list.append(base_url + div.xpath("./a/@href")[0])
      return content_url_list

    def end(self,content_url_list):
      """
      :param content_url_list: 内容页url列表
      :return:
      """
      for content_url in content_url_list:
            print(content_url)
            self.item['content_url'] = content_url
            str = self.parse_url(content_url)
            html = self.handle_html_str(str)
            self.item['title'] = html.xpath("//div[@class='blkContainerSblk collectionContainer']/h1/text()")[0]
            content_list = html.xpath("//div[@class='blkContainerSblkCon']//p//text()")
            content = "".join(content_list)
            content_ = content.replace("\u3000\u3000","")
            self.item['content'] = content_
            with open('意林合集.txt', 'a', encoding='utf-8') as fw:
                fw.writelines("{}\n{}\n\n\n".format(self.item['title'], self.item['content']))
                print("{}保存成功".format(self.item['title']))

    def run(self):
      str = self.parse_url(self.url)
      list_url = self.get_list_url(str)
      content_url_list = self.get_title_list_url(list_url)
      self.end(content_url_list)

if __name__ == '__main__':
    zazhi = Zazhi()
    zazhi.run()

夷陵老祖 发表于 2021-4-22 11:33

咋用啊 楼主

woaipojiene 发表于 2021-4-23 21:35

用pyhon直接运行就可以呀
页: [1]
查看完整版本: 意林杂志网站