吾爱破解 - 52pojie.cn

 找回密码
 注册[Register]

QQ登录

只需一步,快速开始

查看: 1914|回复: 10
收起左侧

[Python 原创] Python——scrapy-splash(lua脚本)介绍

[复制链接]
hybpjx 发表于 2023-7-7 09:26
此篇文章 转载于我的博客

https://www.cnblogs.com/zichliang/p/15796638.html

各位有兴趣的可以去看看。


Splash是一个JavaScript渲染服务,是一个带有HTTP API的轻量级浏览器,同时它对接了Python中的Twisted和QT库。
利用它,我们同样可以实现动态渲染页面的抓取。

官方API: https://splash.readthedocs.io/en/stable/api.html

安装

ubuntu  安装docker 命令

curl -sSL https://get.daocloud.io/docker | sh

  或者

curl -fsSL https://get.docker.com | bash -s docker --mirror Aliyun

启动docker

sudo docker systemctl start docker

安装Splash 拉取docker镜像

sudo docker pull scrapinghub/splash

 

拉取成功后启动服务器

启动命令为:

docker run -p 8050:8050 -p 5023:5023 scrapinghub/splash

最后再浏览器中打开

功能介绍

  1. 异步方式处理多个网页渲染过程

  2. 获取渲染后页面的源代码或截图

  3. 通过关闭图片渲染或者使用Adblock规则来加快页面渲染速度

  4. 可执行特定的JavaScript脚本

  5. 可通过Lua脚本来控制页面渲染过程

  6. 获取渲染的详细过程并通过HAR(HTTP Archive)格式呈现

——————————————————————————————————————————————————————————————————————————————

功能实例

go 用来请求某个链接

可以模拟get和post请求,同时传入请求头、表单等数据,赋值传入变量时用{}
go方法有2个返回值,ok和reason,
ok为空代表网页加载出现错误,
reason变量中包含错误原因

  1. url:请求的URL
  2. baseurl:可选参数,默认为空,表示自愿加载的相对路径
  3. headers:可选参数,默认为空,请求头
  4. http_method:可选参数,默认为get,可以支持post
  5. body:可选参数,默认为空,发post请求时的表单数据,传入的数据内容类型为json
  6. formdata:可选参数,默认为空,发post请求时的表单数据,传入的数据内容类型为x-www-form-urlencoded
function main(splash, args)
  local ok, reason = splash:go{
            url="http://httpbin.org/post", 
            http_method="POST", 
            body="name=dmr"
                }
  splash:wait(2)
  if ok then
    return splash:html()
  end
end

异步处理 机制

异步处理
ipairs,为集合元素进行编号(编号从1开始),类似于python的enumerate
lua脚本语言中字符串拼接用 ..
splash:wait()类似于python中的time.sleep()
当Splash执行wait方法时,它会转而去处理其他任务,等到指定时间结束后再回来进行继续处理

function main(splash, args)
  local example_urls = {"www.baidu.com", "www.taobao.com", "www.zhihu.com"}
  local urls = args.urls or example_urls
  local results = {}
  for index, url in ipairs(urls) do
    local ok, reason = splash:go("http://" .. url)
    if ok then
      splash:wait(2)
      results[url] = splash:png()
    end
  end
  return results
end

JavaScript等的操作方法

jsfunc方法

可以直接调用JavaScript定义的方法,所调用的方法要用双括号包围
如下示例,通过构造JavaScript方法来获取访问页面的title和div数量并返回

function main(splash, args)
local get_div_count = splash:jsfunc([[
function(){
var title = document.title;
var body = document.body;
var divs = body.getElementsByTagName('div');
var div_count = divs.length;
return {div_count, title};
}
]])
ok, reason = splash:go("https://www.mi.com")
result = get_div_count()
return ("This page'title is %s, there are %s divs"):format(result.title, result.div_count)
end

evaljs方法

可以执行JavaScript代码并返回最后一条JavaScript的返回结果

如下示例,只返回最后一条JavaScript语句的执行结果

function main(splash, args)
  splash:go("https://www.mi.com")
  result = splash:evaljs("document.title;document.body.getElementsByTagName('div').length;")
  return result
end

runjs方法

可以执行JavaScript代码,与evaljs类似,但是更偏向于执行某些动作或声明某些方法

如下示例,用runjs方法构造了一个JavaScript定义的方法,然后用evaljs执行此方法获取返回结果

function main(splash, args)
  splash:go("https://www.mi.com")
  splash:runjs("fofo = function(){return 'dmr'}")
  result = splash:evaljs('fofo()')
  return result
end

autoload方法

可以设置每个页面访问时自动加载的对象,在Lua语言中nil相当于python的None
ok, reason = splash:autoload{source_or_url, source=nil, url=nil}

  1. source_or_url:JavaScript代码或JavaScript库链接
  2. source:JavaScript代码
  3. url:JavaScript库链接

示例1,通过构造一个get_path_title对象方法,用evaljs调用执行获取返回结果,在这里与runjs类似,不过构造方法需要用[]中括号

function main(splash, args)
  splash:autoload([[
    function get_path_title(){
    return document.title;
  }
    ]])
  splash:go("https://www.mi.com")
  result = splash:evaljs('get_path_title()')
  return result
end

发起get 和post请求

http_get方法,模拟发送http的get请求

response = splash:http_get{url, headers=nil, follow_redirects=true}

  1. url:请求URL
  2. headers:可选参数,默认为空,请求头
  3. follwo_redirects:可选参数,表示是否启动自动重定向,默认为true
function main(splash, args)
  local t = require("treat")
  local response = splash:http_get("https://www.taobao.com")
  if response.status == 200 then
    return {
      b_html = response.body,
      html = t.as_string(response.body),
      url = response.url,
      status = response.status,
    }
  end  
end

http_post方法,模拟发送http的post请求,与http_get方法类似,不过多个body表单参数

http_post方法,模拟发送http的post请求,与http_get方法类似,不过多个body表单参数
response = splash:http_get{url, headers=nil, follow_redirects=true, body=nil}

  1. url:请求URL
  2. headers:可选参数,默认为空,请求头
  3. follwo_redirects:可选参数,表示是否启动自动重定向,默认为true
  4. body:可选参数,默认为空,表单数据

如下示例,将表单数据提交到了json中

function main(splash, args)
  local t = require("treat")
  local json = require("json")
  local response = splash:http_post{
    args.url, 
    body=json.encode({name="dmr"}),
    headers={["content-type"]="application/json"}
  }
  if response.status == 200 then
    return {
      'response',
      b_html = response.body,
      html = t.as_string(response.body),
      url = response.url,
      status = response.status, 
    }
  end  
end

Cookies的获取添加与删除

获取

function main(splash, args)
  assert(splash:go("https://www.baidu.com"))
  return {cookies = splash:get_cookies()}
end

添加

add_cookie方法,为当前页面添加cookie
splash:add_cookie{name, value, path=nil, domain=nil, expires=nil, httpOnly=nil,secure=nil,}

function main(splash, args)
  splash:add_cookie{'name', 'dmr'}
  assert(splash:go("https://www.baidu.com"))
  return {cookies = splash:get_cookies()}
end

删除

clear_cookies方法,清楚所有的cookies

function main(splash, args)
  splash:add_cookie{'name', 'dmr'}
  assert(splash:go("https://www.baidu.com"))
  splash:clear_cookies()
  return {cookies = splash:get_cookies()}
end

select方法 和 select_all方法

select方法

查找符合条件的第一个节点,用的是CSS选择器

function main(splash, args)
assert(splash:go("https://www.taobao.com"))
input = splash:select("#q")
input:send_text("数码")
splash:wait(2)
return splash:jpeg()
end

select_all方法

查找符合条件的所有节点,用的是CSS选择器

function main(splash, args)
local treat = require("treat")
assert(splash:go("https://movie.douban.com/top250"))
assert(splash:wait(1))
local items = splash:select_all(".inq")
local sum = {}
for index, item in ipairs(items) do
sum[index] = item.node.innerHTML
end
return {
obj1 = sum,
obj2 = treat.as_array(sum)
}
end

设置定时任务进行延时执行

call_later方法,设置定时任务进行延时执行,并且可以在执行前通过cancel()方法重新执行定时任务

如下示例,构造一个timer定时任务,
当访问页面时,等待0.2秒获取页面的截图,
再等待1秒后获取页面的截图
第一次获取页面的截图页面还没加载出来,
所以获取到的是空白页

function main(splash, args)
  local pngs = {}
  local timer = splash:call_later(function()
    pngs['a'] = splash:png()
    splash:wait(1)
    pngs['b'] = splash:png()
    end, 0.2)
  splash:go("https://www.mi.com")
  return pngs
end

其他一些功能与方法

  • 获取页面源码
    splash:html()
  • 控制页面的等待时间
    splash:wait(2)
  • 设置请求头  
    splash:set_user_agent('Splash')
  • 设置自定义请求头
    splash:set_custom_headers({
    ["User-Agent"] = "Splash",
    ["Host"] = "Splash.org"}
    )
  • 获取当前页面的大小,即宽高
    splash:get_viewport_size()
  • 设置当前浏览器页面的大小,即宽高
    splash:set_viewport_size(400, 400)
  • 用来设置浏览器全屏显示
    splash:set_viewport_full()
  • 获取当前正在访问页面的url
    splash:url()
  • 获取页面加载过程描述
    splash:har()
  • 获取网页页面png格式或jpeg格式的截图
    params={
    png = splash:png(),
    jpeg = splash:jpeg()
    }
  • 设置页面的内容
    splash:set_content("<h1>hello</h1>")
  • 控制页面的上下左右滚动 用x定位左右,y定位上下
    splash.scroll_position = {y = 800}
  • 控制浏览器插件(如flash等)是否开启 默认为false
    splash.plugins_enabled= true
  • 页面图片是否加载,默认为true
    splash.images_enabled = false 
  • 页面加载超时时间,单位是秒
    splash.resource_timeout = 0.01 
  • 页面JavaScript的执行开关,默认为true
    splash.js_enabled = False
  • 模拟鼠标点击操作 传入x和y进行点击操作 查找到相关节点,调用此方法进行点击操作
    search = splash:select('#su')
    search:mouse_click()
  • 输入文字
    splash:select("#username"):send_text("username")

    一些万用脚本

    添加请求头 请求url

    function main(splash,args)
          local url=args.url
          splash:set_user_agent("Mozilla/5.0Chrome/69.0.3497.100Safari/537.36")
          splash:go(url)
          splash:wait(2)
          splash:go(url)
          return{
          html=splash:html(),
          png = splash:png()
          }
    end

通过滑动 来完成动态加载

function main(splash, args)
      splash:go(args.url)
      local scroll_to = splash:jsfunc("window.scrollTo")
      scroll_to(0, 2800)
      splash:set_viewport_full()
      splash:wait(5)
      return {html=splash:html()}
end

对接python

render.html

render.html页面,此接口用于获取JavaScript渲染的页面的HTML代码

获取百度页面源代码url示例:http://localhost:8050/render.html?url=https://www.baidu.com
示例,通过调用render.html页面获取百度的源代码并且设置等待时间为4秒import requests

url = ' http://192.168.2.55:8050/render.html?url=https://www.baidu.com&wait=4'
response = requests.get(url)
print(response.text)

render.png和render.jpeg

render.png和render.jpeg,此接口获取网页截图,返回的是二进制数据
配置参数:url,wait,width,height
render.jpeg多了个参数quality,
用来调整图片的质量,取值1-100,默认值为75,应尽量避免取95以上的数值

url示例:http://localhost:8050/render.png?url=https://www.baidu.com&wait=2&width=400&height=400
示例,通过render.png接口获取页面宽400高400的页面截图并保存到文件中

url = 'http://192.168.2.55:8050/render.png?url=https://www.taobao.com&wait=5&width=1000&height=700'
url2 = 'http://192.168.2.55:8050/render.jpeg?url=https://www.taobao.com&wait=5&width=1000&height=700&quality=90'
response = requests.get(url)
with open('taobao.png', 'wb') as f:
    f.write(response.content)
response2 = requests.get(url2)
with open('taobao.jpeg', 'wb') as f:
    f.write(response2.content)

render.har

此接口用来获取页面加载的HAR数据,返回的是json格式的数据

url示例:http://localhost:8050/render.har?url=https://www.baidu.com&wait=2import requests, json

url = ' http://192.168.2.55:8050/render.har?url=https://www.baidu.com&wait=2'
response = requests.get(url)
print(response.content)
with open('har.text', 'w') as f:
    f.write(json.dumps(json.loads(response.content), indent=2))

render.json

render.json,此接口包含了前面接口的所有功能,返回结果是json格式

url示例:http://localhost:8050/render.json?url=https://www.baidu.com&html=1&png=1&jpeg=1&har=1
默认返回:

{'url': ' https://www.baidu.com/', 'requestedUrl': ' https://www.baidu.com/', 'geometry': [0, 0, 1024, 768], 'title': '百度一下,你就知道'}

通过将html、png、jpeg、har参数置为1获取相关的页面数据import requests, json

url = ' http://192.168.2.55:8050/render.json?url=https://www.baidu.com&html=1&png=1&jpeg=1&har=1'
response = requests.get(url)
data = json.loads(response.content)
print(data)
print(data.get('html'))
print(data.get('png'))
print(data.get('jpeg'))
print(data.get('har'))

**execute

功能强大,此接口可实现与Lua脚本的对接,实现交互性操作

url示例:http://localhost:8050/execute?lua_source=
示例1,简单示例,返回lua的执行结果

from urllib.parse import quote
import requests

lua = '''
function main(splash)
  return 'hello'
end
'''
url = 'http://192.168.2.55:8050/execute?lua_source=%s' % quote(lua)
response = requests.get(url)
print(response.text)

示例2,通过execute执行lua脚本获取页面的url,png,html

from urllib.parse import quote
import requests, json

lua = '''
function main(splash)
  splash:go('https://www.baidu.com')
  splash:wait(2)
  return {
    html = splash:html(),
    png = splash:png(),
    url = splash:url()
  }
end
'''
url = 'http://192.168.2.55:8050/execute?lua_source=%s' % quote(lua)
response = requests.get(url)
print(type(response.text), response.text)
dic = json.loads(response.text)
print(type(dic), len(dic), dic.keys())

对接scrapy

def start_requests(self):
    lua="""
        function main(splash, args)
          splash.images_enabled = false  
          assert(splash:go(args.url))
          assert(splash:wait(1))
          js = string.format("document.querySelector('body > div.container > div.main.clearfix > div > div.page > span:nth-child(4) > a').click();", args.page)
          splash:runjs(js)
          assert(splash:wait(5))
          return splash:html()
        end
        """
    url="http://www.pingtan.gov.cn/jhtml/cn/8423"

    yield scrapy_splash.SplashRequest(
          url=url,
          endpoint="execute",
          args={
              "url":url,
              "lua_source":lua,
              "page":page,
              "wait":1
          },
          callback=self.parse
      )

Splash使用代{过}{滤}理

直接设置

yield SplashRequest(
            url=self.start_urls[0],
            callback=self.parse,
            args={
                "wait": 3,
                 # 这里写你代{过}{滤}理
                "proxy": 'http://xxx.xxx.xxx.xxx:xxx'
            }

        )

使用中间件设置

class ProxyMiddleware(object):
      def process_request(self, request, spider):
              # proxyServer 是代{过}{滤}理
          request.meta['splash']['args']['proxy'] = proxyServer 
              # 认证消息,没有可以不写
          # request.headers["Proxy-Authorization"] = proxyAuth

好了就介绍到这里把 也是自己整理了好多大神的资料

免费评分

参与人数 2吾爱币 +2 热心值 +1 收起 理由
D3D行者云 + 1 + 1 谢谢@Thanks!
shengruqing + 1 我很赞同!

查看全部评分

发帖前要善用论坛搜索功能,那里可能会有你要找的答案或者已经有人发布过相同内容了,请勿重复发帖。

Zoeylander 发表于 2023-7-7 10:17
麻竹学习了,非常感谢!
lingwushexi 发表于 2023-7-7 10:25
qingfengfeng 发表于 2023-7-7 11:10
acexxx 发表于 2023-7-7 14:18
牛啊,这样子就不用费尽心思获取一些值了。
D3D行者云 发表于 2023-7-7 15:04
麻竹学习了,非常感谢!
国土无双 发表于 2023-7-7 16:03
国内主流的互联网都对这种无头浏览器做了检测,也过不了几家
 楼主| hybpjx 发表于 2023-7-8 07:50
国土无双 发表于 2023-7-7 16:03
国内主流的互联网都对这种无头浏览器做了检测,也过不了几家

可以过瑞树 cookie的都能过 而且对接的是scrapy 并发量还可以。对那些大厂的反爬肯定还是有所欠缺,最好还是用rpc 或者逆向去过。
zhouzheng1201 发表于 2024-2-27 13:42
谢谢楼主分享
hongyemosuo 发表于 2024-2-27 19:11
赞一个,去你博客看了一下,cnblogs竟然变成这样了!!!
您需要登录后才可以回帖 登录 | 注册[Register]

本版积分规则

返回列表

RSS订阅|小黑屋|处罚记录|联系我们|吾爱破解 - LCG - LSG ( 京ICP备16042023号 | 京公网安备 11010502030087号 )

GMT+8, 2024-11-24 21:03

Powered by Discuz!

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表