百度翻译
import requestsheaders={'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.104 Safari/537.36'}
session=requests.Session()
session.headers.update(headers)
while 4:
a = str(input('请输入你要翻译的词语:'))
data = {'kw': str(a)}
res = session.post('https://fanyi.baidu.com/sug', data=data)
p = res.json()['data']
for p1 in p:
p2 = '待翻译: ' + p1['k'] + '\n'
p3 = '翻译后: ' + p1['v']
print(p2, p3) 什么意思?
什么鬼? 没看懂。。 脚本翻译吗? python代码? 本帖最后由 luxingyu329 于 2022-10-31 20:20 编辑
感觉没有退出机制吧,这样是不是好一点:
import requests
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.104 '
'Safari/537.36'}
session = requests.Session()
session.headers.update(headers)
while 4:
a = input('请输入你要翻译的词语(Q 退出):')# input 本身就会是一个字符串类型,不用强转
if a.lower() == "q":
break
data = {'kw': a}
res = session.post('https://fanyi.baidu.com/sug', data=data)
p = res.json()['data']
for p1 in p:
p2 = '待翻译: ' + p1['k'] + '\n'
p3 = '翻译后: ' + p1['v']
print(p2, p3) import json
import scrapy
class FanyiSpider(scrapy.Spider):
name = 'fanyi'
allowed_domains = ['https://fanyi.baidu.com/sug']
# post请求 如果没有任何参数,没有意义
# start_urls = ['https://fanyi.baidu.com/sug']
def start_requests(self):
url = 'https://fanyi.baidu.com/sug'
data = {
'kw': 'final',
}
yield scrapy.FormRequest(url=url, formdata=data, callback=self.parse_second)
def parse_second(self, response):
content = response.text
obj = json.loads(content, encoding='utf-8')
print(obj) 我记得百度翻译调用api之前会对长字符串做切割处理(好久之前,不知道现在是不是了 有点看不懂,要多学习了
页:
[1]
2