温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

如何利用python爬虫调用百度翻译

发布时间:2021-12-02 17:23:15 来源:亿速云 阅读:390 作者:小新 栏目:大数据

这篇文章主要为大家展示了“如何利用python爬虫调用百度翻译”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“如何利用python爬虫调用百度翻译”这篇文章吧。

1.百度翻译网页分析

首先我们打开百度翻译:

如何利用python爬虫调用百度翻译

然后按F12,打开调试,然后点击network


如何利用python爬虫调用百度翻译

经过我们的分析,我们可以分析到百度翻译的真实post提交页面是Request URL:https://fanyi.baidu.com/sug  并且我们可以发现form data 里面有一个键值对kw:day


如何利用python爬虫调用百度翻译


经过初步分析,我们应该有个大概的思路了,无非就是通过这个网址,我们post提交一些数据给他,然后他会返回一个值给我们(其实到后面我们知道这个数据它是通过json格式返回给我们的)



2.开始写代码

1.首先我们都要导入我们需要的库以及定义一下我们的网址和要翻译的单词(这里我们是用户输入)


from urllib import request, parse
import json

   baseurl = "https://fanyi.baidu.com/sug"
   word = input("请输入您想输入的单词:")
 


2.因为我们通过上面的分析,知道了我们传给它的值(也就是我们要翻译的单词)是通过键值对的形式来传递的,所以我们就可以使用python里面的字典格式进行定义


# 我们需要传送过去的数据
   datas = {
       'kw': word
   }
 



3.然后我们会通过parse来对这个datas进行编码,因为此时的字典类型是字符串类型,我们传送过去的应该是一个bytes类型,如果不进行编码,后面会报错滴!


# 对数据进行编码

   data = parse.urlencode(datas).encode()
 



4.其次,我们要写出访问百度翻译网站的headers,这个headers可以模拟浏览器进行访问,当然我们这种访问只需要写出我们传输的值得长度就够了,其他的参数没有必要去写。


# 写http头部,至少需要Content-Length
   headers = {
       # 此处为编码后的长度
       'Content-Length': len(data),
   }
 
 



5.我们把要传输的数据(单词)和访问该网站的headers写好了之后,就进行最关键的一步,就是把我们写好的这些东西传输到百度翻译的网站上

 

# 将数据传送
   req = request.Request(url=baseurl, data=data, headers=headers)
   res = request.urlopen(req)
 



      我们首先使用request里面的Request对象将 url网址,data数据, headers头文件传入到req对象。然后再将req这个对象写入request的urlopen。


   6.  此时,post数据部分我们已经完成了,res就是返回给我们的数据对象。我们再通过read方法,把这个返回的数据对象读取出来,然后通过decode方法进行编码(此时编码后就成了一个json格式的数据),最后我们将它进行json格式解析。


json_data = res.read()

json_data = json_data.decode()

json_data = json.loads(json_data)
 



我们打印一下json_data

如何利用python爬虫调用百度翻译


7.最后一步就是将我们用户想看到的东西提取出来,我们分析这个json里面的data所对应的值是一个list对象,所以我们提取data的值之后就可以像list一样去处理数据了!


data_list = json_data.get('data')
   for item in data_list:
       print(item['k'], '---', item['v'])
 



最后结果:

如何利用python爬虫调用百度翻译


完整代码



'''
利用爬虫调用百度翻译----power:IT资源君
'''
from urllib import request, parse
import json

if __name__ == '__main__':
   baseurl = "https://fanyi.baidu.com/sug"
   word = input("请输入您想输入的单词:")
   # 我们需要传送过去的数据
   datas = {
       'kw': word
   }
   # 对数据进行编码
   data = parse.urlencode(datas).encode()
   # 写http头部,至少需要Content-Length
   headers = {
       # 此处为编码后的长度
       'Content-Length': len(data),
   }
   # 将数据传送
   req = request.Request(url=baseurl, data=data, headers=headers)
   res = request.urlopen(req)

   json_data = res.read()
   json_data = json_data.decode()
   json_data = json.loads(json_data)
   # data里面是一个list
   data_list = json_data.get('data')
   for item in data_list:
       print(item['k'], '---', item['v'])

以上是“如何利用python爬虫调用百度翻译”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注亿速云行业资讯频道!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI