这篇文章给大家分享的是有关Python爬取翻译小程序的示例分析的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。
2、前置工作
1)由于有道在线翻译是“反爬虫”的,所以在编写该程序的时候需要使用到User-Agent,通过使用request模块中的headers参数,对它进行适当的设置就可以将程序访问伪装为浏览器访问,有两种方法可以添加headers参数,我使用的方法是通过add_header()方法往Request对象中添加headers参数;
2)我使用的是360浏览器,获取它User-Agent的方法是在地址栏中输入about:version即可,结果如下图:
3)在获得该参数后还需要获取有道翻译的data数据,首先先打开有道翻译界面,然后打开其审查元素,点击netwoek,然后在翻译框内输入word点击翻译,找到如下图所示的位置:
4)一直往下滑动,就可以找到data参数,在编程时的设置就需要按照这里来完成,如下图:
其中在headers中需要设置的Referer及User-Agent也在上图中可以找到。
3、任务代码
在程序的编写中需要使用到许多python模块,包括urllib、json 、time等等。
对于urllib在上一篇博客中已经用到了,它的作用是一个高级的 web 交流库,其核心功能就是模仿web浏览器等客户端,去请求相应的资源,并返回一个类文件对象。
json是一种轻量级的数据交换格式,易于人阅读和编写,我们需要使用json.loads 解码 json数据。
time是用于获取当前时间戳并延迟提交数据,延迟提交数据虽然会降低工作效率,但是也降低了ip被网页拉黑的风险。
具体的代码如下图所示:
import urllib.request #导入urllib.request库 import urllib.parse #导入urllib.parse库 import json #导入json库 import time #导入time库 import random #导入random库 import hashlib #导入hashlib库 url = "http://fanyi.youdao.com/translate_o?smartresult=dict&smartresult=rule" #有道翻译的网址 while True: #定义死循环 fanyi = input("请输入想要翻译的内容:") #用户输入想要翻译的内容 #设置API接口 a = 'fanyideskweb' #设置client b = fanyi #需要翻译的内容 c = str(int(time.time() * 1000)+ random.randint(1, 10)) #当前时间戳 d = 'rY0D^0\'nM0}g5Mm1z%1G4' #加密字符 sign = hashlib.md5((a +b +c + d).encode('utf - 8')).hexdigest() #根据内容进行md5加密 #设置data,按照网页审查元素设置即可 data = {} data['i'] = fanyi data['from'] = 'AUTO' data['to'] = 'AUTO' data['smartresult'] = 'dict' data['client'] = 'fanyideskweb' data['salt'] = c data['sign'] = sign data['doctype'] = 'json' data['version'] = '2.1' data['keyform'] = 'fanyi.web' data['action'] = 'FY_BY_CLICKBUTTION' data['typoResult'] = 'true' data = urllib.parse.urlencode(data).encode('utf - 8') #urlencode转换data数据并编码为utf-8码 req = urllib.request.Request(url, data) #指定网页,包含url、data和head #伪造浏览器访问 req.add_header('Referer','http://fanyi.youdao.com') req.add_header('User - Agent','Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36 QIHU 360SE') response = urllib.request.urlopen(req) #post方式打开指定网页 html = response.read() #读取网页信息 html = html.decode('utf - 8') #将utf-8码解码为unicode码 target = json.loads(html) #把json页面转换为一个字典 print("翻译结果: %s" % (target['translateResult'][0][0]['tgt'])) #输出 time.sleep(5) #延迟提交数据
运行结果如下图所示:
感谢各位的阅读!关于“Python爬取翻译小程序的示例分析”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。