温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

怎么用python爬虫豆瓣电影数据

发布时间:2021-12-18 14:00:11 阅读:213 作者:iii 栏目:大数据
Python开发者专用服务器限时活动,0元免费领,库存有限,领完即止! 点击查看>>

这篇文章主要介绍“怎么用python爬虫豆瓣电影数据”,在日常操作中,相信很多人在怎么用python爬虫豆瓣电影数据问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”怎么用python爬虫豆瓣电影数据”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!

下面我们从 国内高匿代理IP 获得代理IP数据。
import osimport timeimport requestsfrom bs4 import BeautifulSoup#num获取num页 国内高匿ip的网页中代理数据def fetch_proxy(num):
    #修改当前工作文件夹
    os.chdir(r'/Users/apple888/PycharmProjects/proxy IP')
    api = 'http://www.xicidaili.com/nn/{}'
    header = {'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS                              X 10_12_3) AppleWebKit/537.36 (KHTML,                       like Gecko) Chrome/56.0.2924.87 Safari/537.36'}
    fp = open('host.txt', 'a+', encoding=('utf-8'))        for i in range(num+1):
        api = api.format(1)
        respones = requests.get(url=api, headers=header)
        soup = BeautifulSoup(respones.text, 'lxml')
        container = soup.find_all(name='tr',attrs={'class':'odd'})                for tag in container:                        try:
                con_soup = BeautifulSoup(str(tag),'lxml')
                td_list = con_soup.find_all('td')
                ip = str(td_list[1])[4:-5]
                port = str(td_list[2])[4:-5]
                IPport = ip + '\t' + port + '\n'
                fp.write(IPport)                        except Exception as e:
                print('No IP!')
        time.sleep(1)
    fp.close()

我们准备抓 国内高匿代理IP网 的十个页面的代理

怎么用python爬虫豆瓣电影数据

但是有代理IP还不行,因为我们不知道这代理能不能用,是否有效。

下面我们用百度网进行检验(大公司不怕咱们短时间内高频率访问),上代码:
import osimport timeimport requestsfrom bs4 import BeautifulSoupdef test_proxy():
    N = 1
    os.chdir(r'/Users/apple888/PycharmProjects/proxy IP')
    url = 'https://www.baidu.com'
    fp = open('host.txt', 'r')
    ips = fp.readlines()
    proxys = list()        for p in ips:
        ip = p.strip('\n').split('\t')
        proxy = 'http:\\' + ip[0] + ':' + ip[1]
        proxies = {'proxy': proxy}
        proxys.append(proxies)           for pro in proxys:                    try:
            s = requests.get(url, proxies=pro)
            print('第{}个ip:{} 状态{}'.format(N,pro,s.status_code))        except Exception as e:
            print(e)
        N+=1

到此,关于“怎么用python爬虫豆瓣电影数据”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注亿速云网站,小编会继续努力为大家带来更多实用的文章!

亿速云「云服务器」,即开即用、新一代英特尔至强铂金CPU、三副本存储NVMe SSD云盘,价格低至29元/月。点击查看>>

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

原文链接:https://my.oschina.net/u/4589342/blog/4624225

AI

开发者交流群×