温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

DBus基于可视化配置的日志结构化转换方法是什么

发布时间:2021-12-20 09:24:26 来源:亿速云 阅读:136 作者:iii 栏目:大数据

这篇文章主要讲解了“DBus基于可视化配置的日志结构化转换方法是什么”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“DBus基于可视化配置的日志结构化转换方法是什么”吧!

DBus之基于可视化配置的日志结构化转换实现

导读:数据总线DBus的总体架构中主要包括六大模块,分别是:日志抓取模块、增量转换模块、全量抽取程序、日志算子处理模块、心跳监控模块、Web管理模块。六大模块各自的功能相互连接,构成DBus的工作原理:通过读取RDBMS增量日志的方式来实时获取增量数据日志(支持全量拉取);基于Logstash,flume,filebeat等抓取工具来实时获得数据,以可视化的方式对数据进行结构化输出。

   

一、结构化日志的原理

  • 源端日志抓取。
    DBus可以对接多种log数据源,例如:Logstash、Flume、Filebeat等。上述组件都是业界比较流行的日志抓取工具,一方面便于用户和业界统一标准,方便用户技术方案的整合;另一方面也避免了无谓的重复造轮子。抓取的数据我们称为原始数据日志(raw data log),由抓取组件将其写入Kafka中,等待DBus后续处理。

  • 可视化配置规则,使日志结构化。
    用户可自定义配置日志源和目标端。同一个日志源的数据可以输出到多个目标端。每一条“日志源-目标端”线,用户可以根据自己的需要来配置相应的过滤规则。经过规则算子处理后的日志是结构化的,即:有schema约束,类似于数据库中的表。

  • 规则算子。
    DBus设计了丰富易用的算子,用于对数据进行定制化操作。用户对数据的处理可分为多个步骤进行,每个步骤的数据处理结果可即时查看、验证;并且可重复使用不同算子,直到转换、裁剪出自己需要的数据。

  • 执行引擎。
    将配置好的规则算子组应用到执行引擎中,对目标日志数据进行预处理,形成结构化数据,输出到Kafka,供下游数据使用方使用。系统流程图如下所示:

    DBus基于可视化配置的日志结构化转换方法是什么

        根据DBus log设计原则,同一条原始日志,可以被提取到一个或多个表中。每个表是结构化的,满足相同的schema约束。

  • 每个表是一个规则算子组的集合,每个表可以拥有1个或多个规则算子组;

  • 每个规则算子组,由一组规则算子组合而成,每个算子具有独立性;

        对于任意一条原始数据日志(raw data log),它应该属于哪张表呢?

假如用户定义了若干张逻辑表(T1,T2…),用于抽取不同类型的日志,那么每条日志需要与规则算子组进行匹配:

  • 进入某张表T1的所有规则算子组的执行过程

  • 符合条件的进入规则算子组,并且被执行引擎转换为结构化的表数据

  • 不符合提取条件的日志尝试下一个规则算子组

  • 对于T1的所有规则算子组,如果都不满足要求,则进入下一张表T2的执行过程,以此类推

  • 如果该条日志不符合任何一张表的过滤规则,则进入_unknown_table_表

例如,对于同一条应用日志,其可能属于不止一个规则组或Table,而在我们定义的规则组或Table中,只要其满足过滤条件,该应用日志就可以被规则组提取,即保证了同一条应用日志可以同属于不同的规则组或Table。

DBus基于可视化配置的日志结构化转换方法是什么

         规则算子是对数据进行过滤、加工、转换的基本单元。常见的规则算子如上图所示。

算子之间具有独立性,算子之间可以任意组合使用,从而可以实现许多复杂的、高级的功能,通过对算子进行迭代使用,最终可以实现对任意数据进行加工的目的。用户可以开发自定义算子,算子的开发非常容易,用户只要遵循基本接口原则,就可以开发任意的算子。

   
二、DBus日志处理实例
          以DBus集群环境为例,DBus集群中有两台机器(即master-slave)部署了心跳程序,用于监控、统计、预警等,心跳程序会产生一些应用日志,这些应用日志中包含各类事件信息,假如我们想要对这些日志进行分类处理并结构化到数据库中,我们就可以采用DBus log程序对日志进行处理。

        DBus可以接入多种数据源(Logstash、Flume、Filebeat等),此处以Logstash为例来说明如何接入DBus的监控和报警日志数据。

DBus基于可视化配置的日志结构化转换方法是什么

        由于在dbus-n2和dbus-n3两台机器上分别存在监控和预警日志,为此我们分别在两台机器上部署了Logstash程序。心跳数据由Logstash自带的心跳插件产生,其作用是便于DBus对数据进行统计和输出,以及对源端日志抽取端(此处为Logstash)进行预警(对于Flume和Filebeat来说,因为它们没有心跳插件,所以需要额外为其定时产生心跳数据)。Logstash程序写入到Kafka中的数据中既有普通格式的数据,同时也有心跳数据。这里不只是局限于2台部署有Logstash程序的机器,DBus对Logstash数量不做限制,比如应用日志分布在几十上百台机器上,只需要在每台机器上部署Logstash程序,并将数据统一抽取到同一个Kafka Topic中,DBus就能够对所有主机的数据进行数据处理、监控、预警、统计等。

1、启动Logstash

        在启动Logstash程序后,我们就可以从topic : heartbeat_log_logstash中读取数据,数据样例如下:

  • 心跳数据:

DBus基于可视化配置的日志结构化转换方法是什么

  • 普通日志数据:

DBus基于可视化配置的日志结构化转换方法是什么

2. 配置规则

        接下来,我们只需要在DBus Web中配置相应的规则就可以对数据进行处理了。

首先新建一个逻辑表sink_info_table,该表用来抽取sink事件的日志信息,然后配置该表的规则组(一个或多个,但所有的规则组过滤后的数据需要满足相同schema特性),heartbeat_log_logstash作为原始数据topic,我们可以实时的对数据进行可视化操作配置(所见即所得,即席验证)。

DBus基于可视化配置的日志结构化转换方法是什么

  • 读取原始数据日志:

DBus基于可视化配置的日志结构化转换方法是什么

        可以看到由Logstash预先提取已经包含了log4j的基本信息,例如path、@timestamp、level等。但是数据日志的详细信息在字段log中。由于不同的数据日志输出是不一样的,因此可以看到log列数据是不同的。

  • 提取感兴趣的列:

        假如我们对timestamp、log 等原始信息感兴趣,那么可以添加一个toIndex算子,来提取这些字段:

DBus基于可视化配置的日志结构化转换方法是什么

  • 这里需要指出,我们考虑使用数组下标方式,是有原因的:
    并不是所有列本身自带列名(例如flume抽取的原始数据,或者split算子处理后的数据列);

  • 下标方式可以使用数组方式指定列(类似python方式, 例如:1:3表示1,2列);
    因此后续操作全部基于数组下标方式访问。

        执行规则,就可以看到被提取后的字段情况:

DBus基于可视化配置的日志结构化转换方法是什么

  • 过滤需要的数据:

        在这个例子中,我们只对含有“Sink to influxdb OK!”的数据感兴趣。因此添加一个filter算子,提取第7列中包含”Sink to influxdb OK!”内容的行数据:

DBus基于可视化配置的日志结构化转换方法是什么

        执行后,只有符合条件的日志行数据才会存在。

DBus基于可视化配置的日志结构化转换方法是什么

  • 对特定列进行提取:

添加一个select算子,我们对第1和3列的内容感兴趣,所以对这两列进行提取。

DBus基于可视化配置的日志结构化转换方法是什么

         执行select算子,数据中就会只含有第1和3列了。

DBus基于可视化配置的日志结构化转换方法是什么

  • 以正则表达式的方式处理数据:

我们想从第1列的数据中提取符合特定正则表达式的值,使用regexExtract算子对数据进行过滤。正则表达式如下:http_code=(d*).*type=(.*),ds=(.*),schema=(.*),table=(.*)s.*errorCount=(d*),用户可以写自定义的正则表达式。

DBus基于可视化配置的日志结构化转换方法是什么

        执行后,就会获取正则表达式执行后的数据。

DBus基于可视化配置的日志结构化转换方法是什么

  • 选择输出列:

最后我们把感兴趣的列进行输出,使用saveAs算子, 指定列名和类型,方便于保存在关系型数据库中。

DBus基于可视化配置的日志结构化转换方法是什么

        执行saveAs算子后,这就是处理好的最终输出数据样本。

DBus基于可视化配置的日志结构化转换方法是什么

3.查看结构化输出结果

    保存上一步配置好的规则组,日志数据经过DBus执行算子引擎,就可以生成相应的结构化数据了。目前根据项目实际,DBus输出的数据是UMS格式,如果不想使用UMS,可以经过简单的开发,实现定制化。

注:UMS是DBus定义并使用的、通用的数据交换格式,是标准的JSON。其中同时包含了schema和数据信息。更多UMS介绍请参考DBus开源项目主页的介绍。开源地址:

https://github.com/bridata/dbus

以下是测试案例,输出的结构化UMS数据的样例:

DBus基于可视化配置的日志结构化转换方法是什么

4.日志监控

        为了便于掌握数据抽取、规则匹配、监控预警等情况,我们提供了日志数据抽取的可视化实时监控界面,如下图所示,可随时了解以下信息:

  • 实时数据条数

  • 错误条数情况(错误条数是指:执行算子时出现错误的情况,帮助发现算子与数据是否匹配,用于修改算子,DBus同时也提供了日志回读的功能,以免丢失部分数据)

  • 数据延时情况

  • 日志抽取端是否正常

DBus基于可视化配置的日志结构化转换方法是什么

        监控信息中包含了来自集群内各台主机的监控信息,以主机IP(或域名)对数据分别进行监控、统计和预警等。

        监控中还有一张表叫做_unkown_table_ 表明所有没有被匹配上的数据条数。例如:Logstash抓取的日志中有5种不同事件的日志数据,我们只捕获了其中3种事件,其它没有被匹配上的数据,全部在_unkown_table_计数中。

DBus基于可视化配置的日志结构化转换方法是什么

        DBus同样可以接入Flume、Filebeat、UMS等数据源,只需要稍作配置,就可以实现类似于对Logstash数据源同样的处理效果。

感谢各位的阅读,以上就是“DBus基于可视化配置的日志结构化转换方法是什么”的内容了,经过本文的学习后,相信大家对DBus基于可视化配置的日志结构化转换方法是什么这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是亿速云,小编将为大家推送更多相关知识点的文章,欢迎关注!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI