fstar22 发表于 2024-11-6 16:00

AI教我抓取岭东资讯比赛成绩

作为一个赛鸽电脑员,需要利用赛鸽系统硬件厂家提供的网站归巢数据来做各种排名和统计工作。岭东资讯作为台湾一家老牌电子鸽钟计时厂家,不少的公棚和较大的俱乐部都在使用。
网上的数据比较简单,很方便就可以抓下来。
以下代码是用AI工具,向其提供要求就自动生成的,真是太厉害,之后根据自己的实际情况稍加改动而成。
现在看来,AI一来,程序员不努力的话,一般的编程工作真是要被电脑取代了,想活下来真得干点AI干不了的工作。

代码如下,有需要拿走

import requests
from bs4 import BeautifulSoup
import csv
import re


base_url="http://china.530520.com.tw/msg/matchGameDetail.asp?Page={}&Ucgp=326&mID=431&mgID=1665"
# 发送GET请求获取网页内容,mgid为比赛编号,ucgp&mid这二个数字为俱乐部或公棚编号,想获取哪个俱乐部的数据自己去查一下。
rows = []
for i in range(50):   #这是成绩总页码,可以根据情况自己调整。
    url = base_url.format(i)
    response = requests.get(url)
    response.encoding = 'utf-8'# 设置编码,避免中文乱码

    # 使用BeautifulSoup解析HTML
    soup = BeautifulSoup(response.text, 'html.parser')


    # 找到包含数据的表格
    table = soup.find(name="table",attrs={'border': '0','cellpadding':'3'})


    # 提取数据行
    if i==0:
   for tr in table.find_all('tr'):# 跳过表头行
      row=[]
      for td in tr.find_all('td'):
      # 移除括号中的内容
            text = re.sub(r'\[.*?\]', '', td.text.strip())
            row.append(text)
      if row:# 确保行不为空
            rows.append(row)
    else:
   for tr in table.find_all('tr'):# 跳过表头行
      row=[]
      for td in tr.find_all('td'):
      # 移除括号中的内容
            text = re.sub(r'\[.*?\]', '', td.text.strip())
            row.append(text)
      if row:# 确保行不为空
            rows.append(row)

# 将数据写入CSV文件
with open('鸽子比赛数据.csv', 'w', newline='', encoding='utf-8-sig') as f:
    writer = csv.writer(f)
   
    writer.writerows(rows)

print("数据已成功抓取并保存到'鸽子比赛数据.csv'文件中。")


以上代码保存下来双击运行就可以了,缺少库自己安装一下。这上面大部分注释都是AI给填上的。。。

liufu123 发表于 2024-11-7 15:15

这。最简单的了把,工棚有多好,有一些滑动验证的,ai写不出来。

greatzdl 发表于 2024-11-6 18:14

小代码看起来是不错, 大工程其实还是有差距的 离开程序员不行

liaoxiaosong56 发表于 2024-11-6 18:25

小工具Ai确实能完成

Su、 发表于 2024-11-6 21:26

最怕的就是你这种言论了,你能用AI了,程序员就不能用了,同样是大学生人家凭啥不要985,用你个大专生
页: [1]
查看完整版本: AI教我抓取岭东资讯比赛成绩