本篇文章为大家展示了如何将RRD数据库中数据导入MYSQL中,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。
将RRD数据库中数据导入MYSQL中
一、RRD数据库及RRDTOOL简介
意为Round Robin Database。设计理念为按照round-robin的方式进行存储,在一个周期之后(可自己定义),新的
数据会覆盖掉原来的数据。所以RRD数据库适合用来存储动态数据,并且不需长期存储。因为是周期性的覆盖旧的数据
所以数据库的大小基本上就会固定下来,并不会随着时间而增大。
RRDTOOL是由Tobias Oetiker开发的自由软件,使用RRD作为存储格式。RRDTOOL提供了很多工具用来对RRD数据库 www.2cto.com
进行操作,包括创建,更新,查询,以及生成显示图等。RRDTOOL同时也提供了很多语言的API以方便操作。
Ganglia是一个分布式的监控系统,采用RRD数据库进行数据存储和可视化。Hadoop包里即有一个与ganglia相关
的配置文件,修改一些参数和对ganglia进行一些设置即可对hadoop集群进行监控。每个不同的属性的数据都存在一个
RRD数据库里。
二、将数据导入MYSQL中
也会存在这样的情况,可能想对rrdtool采集到的数据进行长期存储,从而进行一些分析。而RRD数据库的数据是不断
更新的,虽然也可以保留长期的数据,但精度不够。比如说一个RRD数据库的步长为15秒,也就是说,每隔15秒,
就会有一个新的值存入(比如内存使用率),同时覆盖一个旧的值。一个RRD数据库存储5761个这样的数据(一天+15 www.2cto.com
秒).而且随着时间的推移总是存储最近一天的数据。然后在通过这些值不断地计算步长更高的值,比如我们可以通过
这些15秒的数据算出360s的数据(平均值),然后以360s为步长将这些值再存进去,不过这时候可以存储的时间区间就
更长了,同样的行数可以存储24天的数据。以此类推,也可以以一天为单位存储一年的数据,不过这时候的精度就只有
一天了,那些旧的15s的数据都已经被覆盖掉了。如果想要把这些数据都存储起来,就需要通过脚本定时进行数据导入。
LINUX上做这些是很方便的,perl,python,lua,ruby都是不错的选择,shell也可以。然后用crond设置在一定时间
定时执行即可。以下是python的示例代码:
(注:python学的一般,基本上是边看书,边写的代码,问题不少,请各位指正。)
首先是初始化,创建数据库及相应的表:
import os
import MySQLdb
import string
root="/var/lib/ganglia/rrds/hap-clu"
dirs=os.listdir(root)
map1=string.maketrans('.','_')
map2=string.maketrans('-','_')
conn=MySQLdb.connect(host='localhost', user='root',passwd='123456')
cursor=conn.cursor() www.2cto.com
for onedir in dirs:
dbname=onedir.translate(map1).translate(map2)
cursor.execute("create database if not exists "+dbname)
conn.commit()
conn.select_db(dbname)
# print onedirname
print "DB:"+dbname+" ."
files=os.listdir(root+"/"+onedir)
for onefile in files:
tablename=onefile[:-4].translate(map1)
if(dbname=="__SummaryInfo__"):
cursor.execute("create table if not exists "+tablename+"(time_id int not null primary key,value varchar(30),num varchar(30))")
else:
cursor.execute("create table if not exists "+tablename+"(time_id int not null primary key,value varchar(30))")
conn.commit()
# print "CREATE TABLE "+tablename
print "CREATE DATABASE "+dbname+" "
cursor.close();
这里面有不少说明的地方:
1.存储的目录:ganglia里面默认是这个目录,不过可以修改。其他不同应用也应该不同。最后的那个hap-clu是集群 www.2cto.com
的名字。在这个目录下,每个节点占一个目录,目录名一般为IP地址,最后还有一个summary的目录。对应着,为每个
目录(节点)创建一个数据库,每个属性一个表。
2.MYSQL数据库和表的命名规则中不允许有"."和"-",所以对应的数据库名和表名要做相应的转换。这里使用的是
translate函数。
3.原本以为这个脚本只需执行一次,不过在实际应用过程中,发现表的数量和数据库的数量可能会增加。比如有新添加的
节点,就需要及时为它创建数据库。对于一些已存在的节点,有可能有些属性的数据是后来才检测到的。比如我碰到的情况
就是运行了一段时间之后关于swap的统计信息才出来,RRD数据库也才创建。我不知道这是配置的问题还是常态。但为了
顺利运行,这个脚本也要每天和插入数据的脚本一样定时运行,并且在后者之前。
插入数据的脚本:
import os
import commands
import MySQLdb
import string
import rrdtool
#from xml.etree.ElementTree import ElementTree
www.2cto.com
#working directory
root="/var/lib/ganglia/rrds/hap-clu"
dirs=os.listdir(root)
#mysql table name limit
map1=string.maketrans('.','_')
map2=string.maketrans('-','_')
conn=MySQLdb.connect(host='localhost', user='root',passwd='123456')
cursor=conn.cursor()
for onedir in dirs:
dbname=onedir.translate(map1).translate(map2)
conn.select_db(dbname)
print "DB:"+dbname+" ."
files=os.listdir(root+"/"+onedir)
os.chdir(root+"/"+onedir)
for onefile in files:
# it seems that all is AVERAGE
tablename=onefile[:-4].translate(map1)
data=rrdtool.fetch(onefile,"AVERAGE")
firsttime=data[0][0] www.2cto.com
count=0
while count < 5761:
time=firsttime+15*count
value=data[2][count][0]
if value==None:
count+=1
continue
if dbname=="__SummaryInfo__":
num=data[2][count][1]
fvalue=[time,str(value),str(num)]
try:
cursor.execute("insert into "+tablename+" values(%s,%s,%s)",fvalue)
except MySQLdb.IntegrityError:
pass
else: www.2cto.com
fvalue=[time,str(value)]
try:
cursor.execute("insert into "+tablename+" values(%s,%s)",fvalue)
# print "OK"+str(count)
except MySQLdb.IntegrityError:
pass www.2cto.com
count+=1
conn.commit()
print "UPDATING TABLE "+tablename
cursor.close();
说明:
1.python有RRDTOOL的模块,相应的命令都已经可以通过模块内的函数直接调用,并且结果是的列表或者元组
,很容易遍历。另外有一种方法就是通过调用外部命令将rrd导出到XML中(RRDTOOL内置有此功能),好处是XML
里面的数据极其相近,缺点是太繁琐,效率也不高,还要解析XML。
2.count是RRD里存储的数据的行数,这里为了省事直接设置成了默认的值。严谨的话应该是先通过RRDTOOL INFO取得
想关的结构信息,得到这个值,然后再调用。rrdtool.fetch即可取得所存储的所有值。
3.关于commit。刚开时对API不熟悉,没有加这一句,结果数据都没导进去。第一次加在每次insert 之后,结果插入 www.2cto.com
速度奇慢,更新一次要差不多一天,根本没有用。放到后面之后就很快了。
4.因为插入的频率和RRD更新的频率不一样,为了保证数据的连续性(不丢失),插入的频率要比更新的频率高。这样会有
很多重复的数据,这里用主键(时间戳,为UNIX秒数)和IntegrityError来跳过那些已经插入的数据。当初这样做的时候
已经考虑到一个问题,就是当表里原有行数很多时,到后面插入的速度有多慢?(单个表每天更新的数据为5700行左右,一个
月为17万行左右,一年就会超过200万行)。现在我运行的结果是表中已有5万行数据,插入速度并没有明显的减慢,想接着再
运行一段时间观察一下。如果太慢就得换一个方法。
上述内容就是如何将RRD数据库中数据导入MYSQL中,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注亿速云行业资讯频道。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。