seo必备工具脚本,批量挖掘采集关键词到EXCEL表
本帖最后由 小姐姐退下吧 于 2021-5-11 18:07 编辑下午收到小伙伴反馈失效了,为啥经常失效呢,因为现在是付费时代,干啥都需要充值,不然啥都获取不到,都有限制,所以有需要的还是选择付费吧,抽了点时间将文中代码更改为了A站的api,这样感觉就一劳永逸了,本帖不再更新。
下午收到小伙伴反馈失效了,抽了几分钟修复了下,2020-12-1日代码更新,最新下载地址在文末:
想知道我为啥能第一时间收到小伙伴的反馈消息?点击前往这篇帖子:https://www.52pojie.cn/thread-1276791-1-1.html
还记得自己是这个疫情期间的情人节注册的吾爱破解,这期间也学习到了很多大佬分享的教程和源码,收获颇多。
这不昨天在浏览论坛的时候 发现了一个python写的seo关键词采集挖掘脚本(原帖:https://www.52pojie.cn/forum.php?mod=viewthread&tid=985188&extra=page%3D1%26filter%3Dtypeid%26typeid%3D29&page=1),因为我自己也做了个小网站,平时虽不怎么关注seo这方面,但是对于这种能解放双手的工具还是挺喜爱的,所以我马上就copy下来试了试,发现代码报错,于是我开始翻帖子的评论,发现很多人和我是一样的报错,比如下面这个,和我一样的小白,在求助。
几年前我就曾自学过一段时间的python,再加上自己有一点点编程语言的基础,再加上善于利用百度搜索,总算功夫不负有心人,把这个脚本修复了,至少能够跑起来了,现分享给大家,回馈论坛,互助你我。先贴上代码。大佬们不要见笑
#爱站网长尾关键词挖掘
#2021-5-11更新
# -*- coding=utf-8 -*-
import requests
import xlwt
import json
#secrect_Id 登录爱站后获取
secrect_Id ='805422c95131161b845661eb7afe14c5'
headers = {
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36',
'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
"Connection": "keep-alive",
"Accept-Encoding": "gzip, deflate, br",
"Accept-Language": "zh-CN,zh;q=0.9"
}
#获取关键词数据
def get_keyword_datas(keyword):
data={
'word': keyword,
}
url = "https://apistore.aizhan.com/word/related/{0}".format(secrect_Id)
print(url)
html=requests.post(url,data=data,headers=headers).text
res = json.loads(html)
# print(res)
data_list = []
if res['code'] == 200000:
if res['data']['count'] > 0 :
print('已采集到{0}关键词,正在保存中...'.format(res['data']['count']))
for value in res['data']['list']:
item = []
for k,v in value.items():
item.append(v)
data_list.append(item)
elif res['code'] == 100003:
print("接口维护")
elif res['code'] == 200002:
print("非法关键词")
elif res['code'] == 100005:
print("余额不足,请充值")
else:
print("系统错误")
return data_list
#保存关键词数据为excel格式
def bcsj(keyword,data):
workbook = xlwt.Workbook(encoding='utf-8')
booksheet = workbook.add_sheet('Sheet 1', cell_overwrite_ok=True)
title = [['长尾关键词', '全网指数', 'pc指数', '移动指数']]
title.extend(data)
#print(title)
for i, row in enumerate(title):
for j, col in enumerate(row):
booksheet.write(i, j, col)
workbook.save(f'{keyword}.xls')
print(f"保存数据为 {keyword}.xls 成功!")
if __name__ == '__main__':
keyword = input('请输入关键词>>')
print('正在采集长尾关键词数据,请稍后...')
datas_list=get_keyword_datas(keyword)
if datas_list:
print('========================采集结束========================\n')
bcsj(keyword, datas_list)
else:
print('采集失败\n')
再附上采集部分过程图:
部分成果图:
我的exe文件是用pyinstaller这个来打包的,打包的体积有点大,有需要的可以下载。
2021-5-11日更新 下载: https://aima.lanzouj.com/i6MDmp13bza
如果觉得好用的话,可以给我来个免费评分鼓励下么,谢谢大家了!
落日惊鸿 发表于 2020-7-11 18:32
请问这个怎么使用啊?
先安装python3
然后安装模块lxml xlwt
然后命令提示符运行python 文件名.py就可以了
当然了 我知道如果对于没有接触过python的人来说 我上面这么说可能还是不懂 但是可以借助百度 骑士哥丶 发表于 2020-7-16 22:20
exe一直运行,我连续跑了1个小时了,跑了好多关键字,贼开心~
但是任意键都停止不了,我手动×了,它 ...
停止还是可以停止的 ctrl+C按两次 一般正常的关键词都有100页 因为代码中设置了延迟 所以可能确实需要花费的时间久一点 其实如果手动跑的话 将代码中的64行注释 然后打开65行 将1改为30 采集到30页应该差不多了吧
代码还有优化的空间 我也继续研究研究 :lol膜拜膜拜 我也想搞个网站玩玩,但是不知道弄哪方面的 by、不疼 发表于 2020-7-10 19:33
我也想搞个网站玩玩,但是不知道弄哪方面的
弄自己感兴趣的方面可能会坚持的更长久些 小姐姐退下吧 发表于 2020-7-10 22:05
弄自己感兴趣的方面可能会坚持的更长久些
到现在,都不知道自己喜欢什么了。哈哈 之前搭建过,没空去运行维护,就放弃了… 凌乱的思绪 发表于 2020-7-11 08:34
之前搭建过,没空去运行维护,就放弃了…
我有大把时间,就是没技术{:1_907:} 先下载试试看好不好用 请问这个怎么使用啊?