温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

python使用selenium模拟浏览器抓取淘宝信息的方法是什么

发布时间:2020-08-31 09:25:57 来源:亿速云 阅读:137 作者:小新 栏目:编程语言

python使用selenium模拟浏览器抓取淘宝信息的方法是什么?这个问题可能是我们日常学习或工作经常见到的。希望通过这个问题能让你收获颇深。下面是小编给大家带来的参考内容,让我们一起来看看吧!

目的:

使用 selenium 模拟浏览器抓取淘宝商品信息

实现功能:

1、创建driver对象

2、请求淘宝商品信息

3、实现翻页

4、通过driver对象,解析商品页面内容,获取需要的数据

5、保存数据到MongoDB数据库

代码示例:

# coding = utf-8
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as ec
from selenium.webdriver import ChromeOptions
from selenium.common.exceptions import TimeoutException
from pyquery import PyQuery as pq
from pymongo import MongoClient
import time
import re


class TaobaoSpider(object):
    """使用 selenium 模拟浏览器抓取淘宝商品信息"""

    def __init__(self):
        # 设置options参数,以开发者模式
        option = ChromeOptions()
        option.add_experimental_option("excludeSwitches", ["enable-automation"])

        # 连接MongoDB并创建数据库
        client = MongoClient(host="127.0.0.1", port=27017)
        self.collection = client["taobao"]["products"]

        # 创建一个driver对象,模拟开启一个浏览器
        self.driver = webdriver.Chrome(options=option)

        # 请求登录页面
        self.driver.get("https://login.taobao.com/member/login.jhtml")

        # 等待页面 
        self.wait = WebDriverWait(self.driver, 10)

    def __del__(self):
        pass

    def login(self):
        # 通过扫描登录淘宝
        # 通过CSS选择器找到切换二维码登录的按钮:
        qr_code_login = self.wait.until(
            ec.element_to_be_clickable((By.CSS_SELECTOR, "#login > div.corner-icon-view.view-type-qrcode > i"))
        )
        # 点击扫描登录
        qr_code_login.click()
        time.sleep(5)

    def search(self):
        # 搜索淘宝商品
        self.login()
        # 登录后请求淘宝首页
        try:
            self.driver.get("https://www.taobao.com/")

            # 确认网页加载完成后,找到淘宝搜索输入框
            search_input = self.wait.until(
                    ec.presence_of_element_located((By.CSS_SELECTOR, "#q"))
                )

            # 找到点击按钮
            search_submit = self.wait.until(
                ec.element_to_be_clickable((By.CSS_SELECTOR, "#J_TSearchForm > div.search-button > button"))
            )
            # 输入参数 查询
            search_input.send_keys("鱼皮")
            # 点击按钮提交
            search_submit.click()
            # 商品按照销量排序
            sales_sort = self.wait.until(
                ec.element_to_be_clickable(
                    (By.CSS_SELECTOR, "#J_relative > div.sort-row > div > ul > li:nth-child(2) > a"))
            )
            sales_sort.click()
            # 等待页面数据特别是图片加载完成
            time.sleep(2)
            # 等待商品页数加载完成
            total_page = self.wait.until(
                ec.presence_of_element_located((By.CSS_SELECTOR, "#mainsrp-pager > div > div > div > div.total"))
            )

            # 解析页面数据
            self.parse_data()
            return total_page.text
        except TimeoutException:
            return self.search()

    def turn_pages(self, page_number):
        # 实现翻页操作
        try:
            # 等待 页码输入框 和 提交确定按钮 准备好
            page_input = self.wait.until(
                ec.presence_of_element_located(
                    (By.CSS_SELECTOR, "#mainsrp-pager > div > div > div > div.form > input")
                )
            )
            page_submit = self.wait.until(
                ec.element_to_be_clickable(
                    (By.CSS_SELECTOR, "#mainsrp-pager > div > div > div > div.form > span.btn.J_Submit")
                )
            )
            # 页码清空,然后输入
            page_input.clear()
            page_input.send_keys(page_number)
            # 提交页码
            page_submit.click()
            # 判断是否转入到当前页码:高亮标记页码
            self.wait.until(
                ec.text_to_be_present_in_element(
                    (By.CSS_SELECTOR, "#mainsrp-pager > div > div > div > ul > li.item.active > span"), str(page_number)
                )
            )

            time.sleep(1)
            # 解析页面数据
            self.parse_data()
        except TimeoutException:
            self.turn_pages(page_number)

    def parse_data(self):
        # 解析商品数据
        # 等待所有商品加载成功
        self.wait.until(
            ec.presence_of_element_located((By.CSS_SELECTOR, "#mainsrp-itemlist .items .item"))
        )
        html = self.driver.page_source
        # 通过pyquery解析数据
        data = pq(html)
        # 选出单个商品
        items = data("#mainsrp-itemlist .items .item").items()
        # 通过for遍历每个商品信息,以字典的形式保存
        for item in items:
            product = {
                'title': item.find('.title').text(),
                'price': item.find('.price').text(),
                'deal': item.find('.deal-cnt').text()[:-3],
                'shop': item.find('.shop').text(),
                'location': item.find('.location').text(),
                'image': item.find('.pic .img').attr('src')
            }
            # 去掉数据中的 \n
            for key, value in product.items():
                value = re.sub(r'¥|\n', '', value)
                # print(value)
                product[key] = value
            print(product)
            # 将数据保存到MongoDB
            self.save_to_mongodb(product)

    def save_to_mongodb(self, result):
        # 保存数据到MongoDB数据库
        try:
            if self.collection.insert(result):
                print("数据存储到MongoDB数据库成功")
        except Exception:
            print("数据保存到MongoDB数据库失败")

    def save_to_mysql(self):
        # 保存到MySQL数据库
        pass


def main():
    spider = TaobaoSpider()
    try:
        data = spider.search()
        # 获取总页数
        # data = int(re.compile('(\d+)').search(data).group(1))
        for i in range(2, 4):
            spider.turn_pages(i)
            time.sleep(2)
    finally:
        # 程序退出
        spider.driver.quit()


if __name__ == "__main__":
    main()

测试:

python使用selenium模拟浏览器抓取淘宝信息的方法是什么

感谢各位的阅读!看完上述内容,你们对python使用selenium模拟浏览器抓取淘宝信息的方法是什么大概了解了吗?希望文章内容对大家有所帮助。如果想了解更多相关文章内容,欢迎关注亿速云行业资讯频道。

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI