温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

怎么用Python爬虫搞定发送中文HTTP请求头

发布时间:2021-10-18 10:56:00 来源:亿速云 阅读:154 作者:iii 栏目:编程语言

本篇内容主要讲解“怎么用Python爬虫搞定发送中文HTTP请求头”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“怎么用Python爬虫搞定发送中文HTTP请求头”吧!

怎么用Python爬虫搞定发送中文HTTP请求头

有时需要将HTTP请求头的值设为中文,但如果直接设成中文,会抛出异常,例如,下面的代码为Chinese请求头设置了中文。

from urllib import request url = 'http://httpbin.org/post' headers = {     'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.109 Safari/537.36',     'Host':'httpbin.org',     'Chinese':'李宁', } req = request.Request(url = url,headers=headers,method="POST") request.urlopen(req)

执行这段代码,会抛出如下的异常。

UnicodeEncodeError: 'latin-1' codec can't encode characters in position 0-1: ordinal not in range(256)

这个异常表明HTTP请求头只能是英文字符和符号,不能是双字节的文字,如中文。为了解决这个问题,在设置HTTP请求头时需要将中文编码,然后发送到服务端后,在服务端用同样的规则解码。可以采用多种编码方式,例如url编码,base64编码,url编码就是在浏览器地址栏中如果输入中文,会将其转换为%xx的形式。如输入“中国”,会变成E4%B8%AD%E5%9B%BD。

对字符串url编码,需要使用urllib.parse模块的urlencode函数,解码要使用unquote函数,代码如下:

from urllib.parse import unquote,urlencode # 对中文进行编码 value = urlencode({'name':'李宁'}) print(value) # 对中文进行解码 print(unquote(value))

执行这段代码,会输出如下结果:

name=%E6%9D%8E%E5%AE%81 name=李宁

使用urlencode函数进行编码时,需要指定字典类型,不能直接对字符串进行编码。因为urlencode函数只能对url参数进行编码。

base64编码需要使用base64模块中的b64encode函数,解码使用b64decode函数,代码如下:

import base64 # 对中文进行编码 base64Value = base64.b64encode(bytes('Python从菜鸟到高手',encoding='utf-8')) print(str(base64Value,'utf-8')) # 对中文进行解码,并按utf-8编码格式将解码后的结果转换为字符串 print(str(base64.b64decode(base64Value),'utf-8'))

b64encode函数编码后返回的是bytes类型,需要使用str函数将其转换为字符串类型。b64decode函数解码时需要指定bytes类型的值,b64decode函数的返回值也是bytes类型,所以也需要str函数将该函数的返回值转换为字符串。

下面的例子演示了设置中文HTTP请求头,并对其解码的完整过程。

from urllib import request from urllib.parse import unquote,urlencode import base64 url = 'http://httpbin.org/post' headers = {     'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.109 Safari/537.36',     'Host':'httpbin.org',     'Chinese1':urlencode({'name':'李宁'}),  # 设置中文HTTP请求头,用url编码格式     # 设置中文HTTP请求头,用base64编码格式     'MyChinese':base64.b64encode(bytes('这是中文HTTP请求头',encoding='utf-8')),     'who':'Python Scrapy' } dict = {     'name':'Bill',     'age':30 } data = bytes(urlencode(dict),encoding='utf-8') req = request.Request(url = url,data=data,headers=headers,method="POST") # 通过add_header方法添加中文HTTP请求头,url编码格式 req.add_header('Chinese2',urlencode({"国籍":"中国"})) response=request.urlopen(req) # 获取服务端的响应信息 value = response.read().decode('utf-8') print(value) import json # 将返回值转换为json对象 responseObj = json.loads(value) # 解码url编码格式的HTTP请求头 print(unquote(responseObj['headers']['Chinese1'])) # 解码url编码格式的HTTP请求头 print(unquote(responseObj['headers']['Chinese2'])) # 解码base64编码格式的HTTP请求头 print(str(base64.b64decode(responseObj['headers']['Mychinese']),'utf-8'))

到此,相信大家对“怎么用Python爬虫搞定发送中文HTTP请求头”有了更深的了解,不妨来实际操作一番吧!这里是亿速云网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI