温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

如何使用python网络爬虫基于selenium爬取斗鱼直播信息

发布时间:2022-03-15 09:13:48 来源:亿速云 阅读:207 作者:小新 栏目:开发技术

这篇文章给大家分享的是有关如何使用python网络爬虫基于selenium爬取斗鱼直播信息的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。

    一、本文使用的第三方包和工具

    python 3.8  

    谷歌浏览器

    selenium(3.141.0)(pip install selenium == 3.141.0)注意4.0系列和3.0系列方法不同

    浏览器驱动(和你的浏览器版本对应)

    二、selenium的介绍和浏览器驱动的安装

    1.selenium的介绍

        selenium是一款web自动化测试工具,可以很方便地模拟真实用户对浏览器进行操作,它支持各种主流浏览器:IE、Chrome、Firefox、Safari、Opera等。你可以使用selenium做web测试或者爬虫,自动抢票、自动下单也可以用selenium来做。

    2.浏览器驱动的安装

       网上方法很多,友友们自行搜索,在这里提一点注意事项:本文用的是谷歌浏览器,浏览器驱动要对应谷歌的哦,注意浏览器驱动与你的浏览器版本相对应,这里给出谷歌浏览器驱动的下载地址,友友们按照自己浏览器的版本对应现在即可

    http://chromedriver.storage.googleapis.com/index.html

    下载完成后注意配置环境变量哦,不配置也行,不配置就要在代码中写上你的Chromedriver.exe文件的路径或者不写路径将你的Chromedriver.exe和py文件放到同一目录下也可以哦

    三、代码思路分析

    进入斗鱼官网,点到直播,下面的在线直播信息就是我们需要爬取的

    可以看到有标题,类型,姓名,以及热度,我们爬取这四个字段就行

    然后滑到底部,这里的下一页是我们控制爬取页数的

     注意:当我们进入页面时,虽然有滚动条,但所有直播信息已经加载好,并不是通过滑动然后Ajax加载的,所以在代码中并不需要写滑动,直接提取就可以拿到整个页面的数据。

    1.解析数据的函数

     #解析数据的函数
        def parse(self):
            #强制等待两秒,等待页面数据加载完毕
            sleep(2)
            li_list = self.bro.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li')
            #print(len(li_list))
            data_list = []
            for li in li_list:
                dic_data = {}
                dic_data['title'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/h4').text
                dic_data['name'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/h3/div').text
                dic_data['art_type'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/span').text
                dic_data['hot'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/span').text
                data_list.append(dic_data)
            return data_list

    2.保存数据的函数

     #解析数据的函数
        def parse(self):
            #强制等待两秒,等待页面数据加载完毕
            sleep(2)
            li_list = self.bro.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li')
            #print(len(li_list))
            data_list = []
            for li in li_list:
                dic_data = {}
                dic_data['title'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/h4').text
                dic_data['name'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/h3/div').text
                dic_data['art_type'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/span').text
                dic_data['hot'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/span').text
                data_list.append(dic_data)
            return data_list

    (1)保存为txt文本

    #保存数据的函数
        def save_data(self,data_list,i):
            #在当前目录下将数据存为txt文件
            with open('./douyu.txt','w',encoding='utf-8') as fp:
                for data in data_list:
                    data = str(data)
                    fp.write(data+'\n')
                print("第%d页保存完成!" % i)

    (2)保存为json文件

    #保存数据的函数
        def save_data(self,data_list,i):
            with open('./douyu.json','w',encoding='utf-8') as fp:
                 #里面有中文,所以注意ensure_ascii=False
                 data = json.dumps(data_list,ensure_ascii=False)
                 fp.write(data)
                 print("第%d页保存完成!" % i)

    3.主函数设计

    #主函数
        def run(self):
            #输入要爬取的页数,如果输入负整数,转化成她的绝对值
            page_num = abs(int(input("请输入你要爬取的页数:")))
            #初始化页数为1
            i = 1
            #判断输入的数是否为整数
            if isinstance(page_num,int):
                #实例化浏览器对象
                self.bro = webdriver.Chrome(executable_path='../../可执行文件/chromedriver.exe')
                # chromedriver.exe如果已添加到环境变量,可省略executable_path='../../可执行文件/chromedriver.exe'
                self.bro.get(self.url)
                while i <= page_num:
                    #调用解析函数
                    data_list = self.parse()
                    #调用保存函数
                    self.save_data(data_list,i)
                    try:
                        #定位包含“下一页”字段的按钮并点击
                        button = self.bro.find_element_by_xpath('//span[contains(text(),"下一页")]')
                        button.click()
                        i += 1
                    except:
                        break
                self.bro.quit()
            else:
                print("输入格式错误!")

    四、完整代码

    from selenium import webdriver
    from time import sleep
    import json
    #创建一个类
    class Douyu():
        def __init__(self):
            self.url = 'https://www.douyu.com/directory/all'
        #解析数据的函数
        def parse(self):
            #强制等待两秒,等待页面数据加载完毕
            sleep(2)
            li_list = self.bro.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li')
            #print(len(li_list))
            data_list = []
            for li in li_list:
                dic_data = {}
                dic_data['title'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/h4').text
                dic_data['name'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/h3/div').text
                dic_data['art_type'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/span').text
                dic_data['hot'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/span').text
                data_list.append(dic_data)
            return data_list
        #保存数据的函数
        def save_data(self,data_list,i):
            #在当前目录下将数据存为txt文件
            with open('./douyu.txt','w',encoding='utf-8') as fp:
                for data in data_list:
                    data = str(data)
                    fp.write(data+'\n')
                print("第%d页保存完成!" % i)
            # json文件的存法
            # with open('./douyu.json','w',encoding='utf-8') as fp:
            # 里面有中文,所以注意ensure_ascii=False
            #     data = json.dumps(data_list,ensure_ascii=False)
            #     fp.write(data)
            #     print("第%d页保存完成!" % i)
        #主函数
        def run(self):
            #输入要爬取的页数,如果输入负整数,转化成她的绝对值
            page_num = abs(int(input("请输入你要爬取的页数:")))
            #初始化页数为1
            i = 1
            #判断输入的数是否为整数
            if isinstance(page_num,int):
                #实例化浏览器对象
                self.bro = webdriver.Chrome(executable_path='../../可执行文件/chromedriver.exe')
                # chromedriver.exe如果已添加到环境变量,可省略executable_path='../../可执行文件/chromedriver.exe'
     
                self.bro.get(self.url)
                while i <= page_num:
                    #调用解析函数
                    data_list = self.parse()
                    #调用保存函数
                    self.save_data(data_list,i)
                    try:
                        #定位包含“下一页”字段的按钮并点击
                        button = self.bro.find_element_by_xpath('//span[contains(text(),"下一页")]')
                        button.click()
                        i += 1
                    except:
                        break
                self.bro.quit()
            else:
                print("输入格式错误!")
    if __name__ == '__main__':
        douyu = Douyu()
        douyu.run()

    感谢各位的阅读!关于“如何使用python网络爬虫基于selenium爬取斗鱼直播信息”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!

    向AI问一下细节

    免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

    AI