今天就跟大家聊聊有关Scrapy中怎么利用selenium爬取淘宝,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。
from selenium import webdriver from selenium.webdriver.chrome.options import Options import time from scrapy.http.response.html import HtmlResponse from scrapy.http.response.text import TextResponse from selenium.webdriver import ActionChains class TaobaoMiddleware(object): #处理请求函数 def process_request(self,request,spider): #声明一个Options对象 opt = Options() #给对象添加一个--headless参数,表示无头启动 opt.add_argument('--headless') #把配置参数应用到驱动创建的对象 driver = webdriver.Chrome(options=opt) #打开requests中的地址 driver.get(request.url) #让浏览器滚动到底部 for x in range(1,11): j = x / 10 js = "document.documentElement.scrollTop = document.documentElement.scrollHeight*%f"%j driver.execute_script(js) #每次滚动等待0.5s time.sleep(5) #获取下一页按钮的标签 next_btn =driver.find_element_by_xpath('//span[contains(text(),"下一页")]') #睡眠0.5秒 time.sleep(0.5) #对下一页标签进行鼠标右键触发事件 ActionChains(driver).context_click(next_btn).click().perform() # driver.save_screenshot('截图.png') #把驱动对象获得的源码赋值给新变量 page_source = driver.page_source #退出 driver.quit() #根据网页源代码,创建Htmlresponse对象 response = HtmlResponse(url=request.url,body=page_source,encoding='utf-8',request=request) #因为返回的是文本消息,所以需要指定字符编码格式 return response def process_response(self,request,response,spider): return response def process_exception(self,request,exception,spider): pass
看完上述内容,你们对Scrapy中怎么利用selenium爬取淘宝有进一步的了解吗?如果还想了解更多知识或者相关内容,请关注亿速云行业资讯频道,感谢大家的支持。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。