本文小编为大家详细介绍“python基于Scrapy怎么从数据库获取URL进行抓取”,内容详细,步骤清晰,细节处理妥当,希望这篇“python基于Scrapy怎么从数据库获取URL进行抓取”文章能帮助大家解决疑惑,下面跟着小编的思路慢慢深入,一起来学习新知识吧。
代码如下:
import pymysql class MySpider(scrapy.Spider): MAX_RETRY = 10 logger = logging.getLogger(__name__) name = 'myspider' start_urls = [] @classmethod def from_crawler(cls, crawler, *args, **kwargs): spider = super(MySpider, cls).from_crawler(crawler, *args, **kwargs) crawler.signals.connect(spider.spider_closed, signals.spider_closed) return spider def __init__(self): # 连接database conn = pymysql.connect(host="数据库地址",user="用户名",password="数据库密码",database="数据库名",charset="utf8") self.conn = conn self.logger.info('Connection to database opened') super(MySpider, self) def spider_closed(self, spider): self.db.close() self.logger.info('Connection to database closed') def parse(self, response): item = MyItem() #这里处理抓取逻辑 yield item def errback_httpbin(self): self.logger.info('http error') def start_requests(self): cursor = self.conn.cursor() #这里处理查询数据库逻辑 cursor.execute('SELECT * FROM mytable WHERE nbErrors < %s', (self.MAX_RETRY,)) rows = cursor.fetchall() for row in rows: yield Request(row[0], self.parse, meta={ 'splash': { 'args':{ 'html': 1, 'wait': 2 } } }, errback=self.errback_httpbin) cursor.close()
读到这里,这篇“python基于Scrapy怎么从数据库获取URL进行抓取”文章已经介绍完毕,想要掌握这篇文章的知识点还需要大家自己动手实践使用过才能领会,如果想了解更多相关内容的文章,欢迎关注亿速云行业资讯频道。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。