个人博客:https://mypython.me
源码地址:https://github.com/geeeeeeeek/scrapy_stock
抓取工具:scrapy
Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。 可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。其最初是为了 页面抓取 (更确切来说, 网络抓取 )所设计的, 也可以应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫。
安装scrapy
pip install Scrapy
选择一个网站 --> 定义数据 --> 编写spider
首先使用scrapy创建一个项目
scrapy startproject tutorial
这里我们选择的是东方财富网的股票代码页面:http://quote.eastmoney.com/stocklist.html
我们需要抓取股票的代码id,因此只需要定义stock_id
class StockItem(scrapy.Item):
stock_id = scrapy.Field()
class StockSpider(scrapy.Spider):
name = 'stock'
def start_requests(self):
url = 'http://quote.eastmoney.com/stocklist.html'
yield Request(url)
def parse(self, response):
item = StockItem()
print "===============上海================"
stocks_sh = response.css('div#quotesearch ul li a[href*="http://quote.eastmoney.com/sh"]::text')
for stock in stocks_sh:
item['stock_id'] = 's_sh' + re.findall('\((.*?)\)', stock.extract())[0]
yield item
print "===============深圳================"
stocks_sz = response.css('div#quotesearch ul li a[href*="http://quote.eastmoney.com/sz"]::text')
for stock in stocks_sz:
item['stock_id'] = 's_sz' + re.findall('\((.*?)\)', stock.extract())[0]
yield item
玄机尽在response.css('div#quotesearch ul li a[href*="http://quote.eastmoney.com/sh"]::text’)
,使用了css来过滤自己需要的数据。
运行程序
scrapy crawl stock -o stock.csv
即可生成stock.csv文件
预览如下:
stock_id
s_sh301000
s_sh301001
s_sh301002
s_sh301003
s_sh301004
s_sh301005
s_sh301008
s_sh301009
s_sh301010
s_sh302001
s_sh302003
s_sh302007
s_sh303007
s_sh303008
s_sh303009
…
如果要查询单个股票的股票行情,可以使用新浪的股票接口:
http://hq.sinajs.cn
例如
http://hq.sinajs.cn/list=s_sh700756
即可得到浪潮软件的股票行情
var hq_str_s_sh700756="浪潮软件,19.790,1.140,6.11,365843,70869";
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。