温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

分布式爬虫有什么设计要点

发布时间:2021-09-16 15:46:39 来源:亿速云 阅读:144 作者:小新 栏目:编程语言

这篇文章给大家分享的是有关分布式爬虫有什么设计要点的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。

分布式爬虫解决方案。

为了实现批量抓取某一大站的数据,最好是通过维护4个队列。

1、url任务列-存储待捕获的url数据。

2、原始url队列-存储在捕获的网页中,但尚未处理。

处理主要是检查是否需要捕获,是否重复捕获。

3、原始数据队列-存储的数据没有任何处理。

4、二手数据列-存储进入数据处理过程的待存储数据。

上述队列分别有4个监控执行任务的过程,即:

  • 爬虫抓取过程-监控url任务队列,捕获网页数据,并将捕获的原始数据丢失到原始数据队列。

  • url处理过程:监控原始url队列,过滤异常url和重复捕获的url。

  • 数据提取过程:监控原始数据队列,提取原始数据队列的关键数据包括新的网址和目标数据。

  • 数据存储过程:将二手数据整理后存储在mongodb中。

爬虫的设计要点。

如果你想批量抓取一个网站,你需要建立一个自己的爬虫框架。建立之前,你应该考虑几个问题:避免被封IP、图像验证码识别、数据处理等。

相对简单的图片验证码可以通过pytesseract库自行编写识别程序,这只能识别简单的图片数据。滑动鼠标、滑块、动态图像验证码等更复杂的地方只能考虑购买编码平台进行识别。

对于数据处理,如果你发现你得到的数据被打乱了,解决办法就是识别它的打乱规律,或者通过源js代码获得通过pythonexecjs库或其他执行js库的数据提取。

感谢各位的阅读!关于“分布式爬虫有什么设计要点”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI