这篇文章给大家介绍为什么用Scrapy无法使用Cookies登录,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。
我们知道,网站使用 Cookies 来记录用户的登录状态。如果我们从浏览器中把 Cookies 复制下来,放到爬虫中,在某些情况下,就可以让爬虫直接访问到登录后的页面。
以练习页面http://exercise.kingname.info/exercise_login_success
为例。在没有登录的情况下,访问这个地址,会自动跳转到登录页面,如下图所示:
输入用户名kingname
,密码genius
,点选自动登录
,并点击登录按钮,跳转到登录成功的页面,如下图所示:
一旦登录成功,即使关闭浏览器再重新打开该网址,依然会直接进入登录后的页面。
我们在 Chrome 的开发者工具中可以看到在登录后,当我们刷新页面时发送的请求:
在 Request Headers
里面可以看到请求头,在请求头中包含了 Cookie项。
当我们使用 Requests 访问这个网址时,只要请求头中含有这个 Cookie,我们就能直接访问到请求成功的页面,如下图所示:
整个过程非常简单并直观。
但如果你想使用 Scrapy 做同样的事情,你会发现登录失败了。如下图所示:
这其中的关键,就在于 Scrapy 发起请求的时候,并不会使用 Headers 中的 Cookie,而是单独有一个cookies
参数。
当使用 Request 时,Cookie在 Headers 中是以字符串的形式存在,不同的项目之间使用分号连接,项目内的键值之间使用冒号连接。
但是在 Scrapy 中,传给cookies
参数的值是一个字典,字典的 key 就是各个项目的 key,值就是各个项目的值。
所以我们对 Scrapy 的代码稍作修改,从Headers 中移除 Cookie 项,并改成字典形式,传给 cookies
参数,再次请求发现请求成功:
关于为什么用Scrapy无法使用Cookies登录就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。