温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

使用python怎么爬取网站的购买记录

发布时间:2021-05-06 17:12:28 来源:亿速云 阅读:415 作者:Leah 栏目:编程语言

这期内容当中小编将会给大家带来有关使用python怎么爬取网站的购买记录,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。

python的数据类型有哪些?

python的数据类型:1. 数字类型,包括int(整型)、long(长整型)和float(浮点型)。2.字符串,分别是str类型和unicode类型。3.布尔型,Python布尔类型也是用于逻辑运算,有两个值:True(真)和False(假)。4.列表,列表是Python中使用最频繁的数据类型,集合中可以放任何数据类型。5. 元组,元组用”()”标识,内部元素用逗号隔开。6. 字典,字典是一种键值对的集合。7. 集合,集合是一个无序的、不重复的数据组合。

第一步:添加必要的库,创建一个BUY类

import  requests,re,xlwt

第二步:class Color;

def __init__(self):
    '''添加请求头'''
    self.headers = {
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 '
                      '(KHTML, like Gecko) Chrome/87.0.4280.141 Safari/537.36',
    }
    #添加查询订单地址
    self.port = 'http://xxxxxx.xxfaka.cn/?mod=query&data=xxxxxxxxxxx'

'''请求视频网页链接'''
def request_link(self):
    self.response = requests.get(self.port, headers=self.headers)
    self.html = self.response.text
    print(self.html)

    if __name__ == '__main__':
    app= Color()
    app.request_link()

直接运行之后的数据有点多,这里没有完全显示

第三步:找到cookie添加到请求头

根据搜索资料发现需要加cookie,然后又去网页找到cookie添加到请求头,然后headers会出现下面这种情况

self.headers = {
                                                    'Cookie':'mysid=bcd178f6a7784bdaf63c03e321cfb77a; PHPSESSID=gml9nd9psrik73840v6jem6mm4; sec_defend=baa2a7703f2f3326fa7a366428aef295ac40ff679f2fec0284578de88e87bcac; sec_defend_time=1',
                                                    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 '
                                                                                                            '(KHTML, like Gecko) Chrome/77.0.3560.141 Safari/537.36',
                                    }

第四步:再次运行代码

这时候就可以拿到网页数据了

初步打算一次直接匹配一个订单全部消息,但是发现有对括号导致一直匹配内容为空

</span>  (<font size="2" color="#836FFF">2020-12-24 01:09:09</font>)<br>…太长了…<hr>

用两个replace将括号替换为空

self.html = self.html.replace('(','')
    self.html = self.html.replace(')', '')
    re.findall(r'…(.*?)…(.*?)…',self.html)

第五步:一条语句扣一个内容,之后在for循环将对应数据放到一个列表

匹配了六七个(.?)内容,发现总是不能准确扣到具体内容,有可能好几条订单被扣到一个(.?)里面。这个时候可以换个思路,一条语句扣一个内容,之后在for循环将对应数据放到一个列表,然后整体再放入列表组成二维列表。

#获取订单时间
            self.order_time = re.findall(r'<font size=".*?" color="#836FFF">(.*?)</font>.*?<br><h5>商品名称:<a href="\./\?mod=buy&tid=\w?\w?\w?\w?">(.*?)</a></h5>联系方式:.*?总价<font color=".*?">(.*?)</font>元.*?</strong></font>(.*?)<hr>',self.html)
    #获取商品名称
    self.pur_info = re.findall(r'',self.html)
    #获取订单联系方式
    self.contact_info = re.findall(r'',self.html)
    #获取订单总价
    self.price_total = re.findall(r'总价<font color=".*?">(.*?)</font>元',self.html)
    #获取账号不完全信息
    self.km_info = re.findall(r'</strong></font>(.*?)<hr>',self.html)
    #获取下单总数
    self.num_total = re.findall(r'<li><span class="rows">共(.*?)条</span> </li>', self.html)
            temp_info =[]
        for i in range(0,len(self.order_time)):
                    for lie in range(0,6):#lie
                            temp_info.append(self.order_time[lie])
                            temp_info.append(self.pur_info[lie])
                            temp_info.append(self.contact_info[lie])
                            temp_info.append(self.price_total[lie])
                            temp_info.append(self.km_info[lie])
                            temp_info.append(self.num_total[0])
                    temp_info.append(''.join(temp_info))
                    self.account_info.append(list(temp_info))
            print(self.account_info)

写出来基本就是上面的样子,运行发现四五秒以后直接卡死,然后半小时没动重新开机了,代码没保存再运行append那就报错了,就暂时放弃这种方法,重新回到之前的思路,把数据一次都提取出来,既然这单个的都准确提取了,放到一起就可以了。把每个放到一起连接起来运行,直接生成了二维数据。

for i in range(0,len(self.info)):
            self.info[i] = list(self.info[i])

    #通过这里来判断订单的三种情况
    km_info = re.findall(r'>账号信息:(.*?)</b><br>',self.info[i][5])
    if km_info==[]:
            km_info = re.findall(r'</b><span class="(.*?)">卡密可能漏发,请联系客服</span>',self.info[i][5])
    if km_info == []:
            km_net = re.findall(r'<br>卡密操作:<a href=".(.*?)" title="点击查看卡密"><button', self.info[i][5])
            km_net = self.port +(''.join(km_net))#多张卡密提取链接
            #尚未完成一个单子多张卡密提取
    self.info[i][5] = km_info

上述就是小编为大家分享的使用python怎么爬取网站的购买记录了,如果刚好有类似的疑惑,不妨参照上述分析进行理解。如果想知道更多相关知识,欢迎关注亿速云行业资讯频道。

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI