项目需要继续爬点昵称~~~先上代码
#coding=utf-8
import urllib,urllib2
import re
from bs4 import BeautifulSoup
import time
import sys
reload(sys)
sys.setdefaultencoding('utf-8')
#获取要下载图片的整个页面的信息
def getHtml(url):
page=urllib2.urlopen(url)
html=page.read()
# print html
return html
#筛选数据并打印到本地
def getImg(html):
soup=BeautifulSoup(html,'html.parser')
dls=soup.find_all('dl',attrs={'class':'feed_list'})
for index in range(len(dls)):
p=dls[index].find_all('p')[0]
print p.text
f=open("nichengnan.txt","a")
for index in range(len(dls)):
nicheng=dls[index].find_all('p')[0].text
f.write(nicheng)
f.write('\r\n')
f.close()
user_agent='Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_4) AppleWebKit/600.7.12 (KHTML, like Gecko) Version/8.0.7 Safari/600.7.12'
headers={"User-Agent":user_agent}
page=201
length=0
while page<231:
url='http://www.qzone.cc/wangming/fav/list_'+str(page)+'.html'
print "正在爬取第"+str(page)+"页......."
# print "这里呢"
request=urllib2.Request(url,headers=headers)
html=getHtml(request)
getImg(html)
page=page+1
time.sleep(0.5)
f=open('nichengnan.txt','r')
lines=f.readlines()
print "当前一共"+str(len(lines))+"条昵称"
f.close()
爬的是网址
http://www.qzone.cc/wangming/day/list_1.html
跟上一个帖子里基本一样。。。找到规则后直接BS爬取。区别就是这里是手动输入定义要爬取的页码数,不必像那个一样一个网址一个网址复制。不过手动改写网址貌似还是有点麻烦。。。。后面可以通过分析最后一页的“下一页”和前面的有啥区别。稍后看看能不能解决。先这样
亿速云「云服务器」,即开即用、新一代英特尔至强铂金CPU、三副本存储NVMe SSD云盘,价格低至29元/月。点击查看>>
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。