抓出来的数据如何组脚本运行
皇鸟抓出来的数据,想在脚本里运行,纯小白!大佬们细讲! 点预览看一下正式的请求内容啊 还要看请求体 chaozhi 发表于 2023-5-30 13:43点预览看一下正式的请求内容啊
这个吗!!!!! 你都没试试直接网址输浏览器直接能打开不? 黄鸟长按条目可以复制curl,然后网上搜一下curl转编程语言的工具,在线很多的,免费,转换之后直接运行就可以。
运行没有结果就要自己调整一下参数,这个比较复杂 用python的requests模块 想零基础自学java 我去年开发项目样本,不知道能否帮到你,这个脚本使用Scapy来处理抓包数据。
先定义一个处理数据包的函数process_packet,它提取TCP包的源IP、目标IP、源端口、目标端口和数据载荷,并对数据载荷进行处理。
然后,设置了一个抓包过滤器,我使用TCP过滤器,你可以根据你的需求来修改过滤器表达式。再使用sniff开始抓包,传入过滤器和处理函数作为参数。
from scapy.all import *
# 定义处理抓包数据的函数
def process_packet(packet):
if packet.haslayer(TCP):
# 提取TCP包的源IP、目标IP、源端口和目标端口
src_ip = packet.src
dst_ip = packet.dst
src_port = packet.sport
dst_port = packet.dport
# 提取TCP包的数据载荷
payload = packet.payload
# 在这里可以根据需求对数据载荷进行处理
# 例如,可以打印载荷内容或将其保存到文件中
print(f"源IP: {src_ip}, 目标IP: {dst_ip}, 源端口: {src_port}, 目标端口: {dst_port}")
print(f"载荷内容: {payload}")
print("--------------")
# 设置抓包过滤器
filter_expression = "tcp"
# 开始抓包
sniff(filter=filter_expression, prn=process_packet)
你可以根据具体的需求来修改和扩展这个脚本,例如根据协议类型、源/目标IP地址、源/目标端口等进行过滤,或者将提取到的数据保存到文件中等。
页:
[1]