温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

使用 Flume NG 实现数据采集平台

发布时间:2020-08-06 04:40:06 来源:网络 阅读:2135 作者:水牛sandy 栏目:开发技术

为什么用Flume NG?#

对Flume NG不了解的朋友可以阅读一下这篇文章Flume NG入门详解 。开源的日志采集方案很多:

  • Scribe : 是Facebook开发的数据收集系统,项目不怎么维护。

  • Logstash: 是著名的开源数据栈ELK中的那个L。Logstash使用JRuby开发,运行时依赖JVM。 有比较强大的字段解析和过滤功能,但需要配置grok表达式,对实现数据传输有一定局限性,觉得不方便二次开发。

  • Flume NG: 是Cloudera主导开发,是新一代的数据采集传输工具,构架简单,使用灵活,是hadoop生态中的一部分,核心代码量不大,方便二次开发。

选择什么方案主要根据团队积累和习惯,能解决数据采集问题就好。本文主要讲解使用Flume NG搭建数据采集平台。

数据采集平台需求#

数据采集是大数据平台的重要一环,一边需要对接各种数据源,另一边要考虑离线数据对接和实时流式计算需求。总结一下主要需求点:

  • 支持文件日志数据采集,保证文件记录不丢失

  • 考虑应用升级成本,低成本实现日志数据对接

  • 考虑流式计算需求,建立高速数据通路

  • 能够有一定的扩展性,应对数据量的增长

  • 具有一定容灾考虑,保证数据完整性

  • 能够监控数据的采集,传输过程

Flume NG数据采集平台方案#

使用 Flume NG + Kafka,基本能够实现上述平台需求:

  • Flume 已经实现了各种source,基本能够保证灵活实现各种数据源的对接

  • Flume 可配置成将数据复制成两个数据流,一条直接写入HDFS,一条写入Kafka

  • 通过Kafka对接流式计算和其它数据消费者,从而完成数据源和消费者的解耦

  • Flume支持loadbalance和failover,能够实现水平扩展,保证数据传输完整性

  • Flume 支持http方式获取内部监控指标数据

我们看看使用Flume NG构建数据采集平台的整体架构:

整个方案通过avro rpc做数据的汇集。为什么中间多了 data collection 这层?增加这层起到数据汇集的作用,datasource节点会很多,如果这些点都直接对接持久化层,那配置是比较多的,而且需要做调整时,涉及的机器和权限太多。多加一层可以使前后耦合降低,中间层机器数量不多,对数据写入,文件数量都有一定优化作用。而且需要增加新的数据持久只需修改几个节点配置。

实际使用中有几个点需要注意和优化:

  • channel的选择,考虑性能和稳定性,可以考虑使用SpillableMemoryChannel,兼顾memory channel和file channel的实现,代码量不大,可以验证使用。如果你保守一点就是用file channel。

  • file channel使用磁盘分区最好和应用数据输出分区分开,file channel,进度和数据目录也尽量分开。

  • 配置loadbalance和failover时候,sink不能复用。

  • 如果有能力尽量重新定制hdfs 写入过程,使用约定来减少通用代码逻辑。现有的hdfs sink,考虑到通用性使用了正则等,没有考虑你的数据特点,有一定优化的空间。

  • 增加各个环节 channel,source,sink 的监控,了解整体数据流向和压力,适时考虑扩容等问题。

  • 最好自己能够开发flume ng source 和sink,这样可以根据自己业务数据的特点,做适当的优化。

总结#

Flume NG 是一个很好的数据收集和传输工具,适合二次开发。后面一些实践配置继续给出。



向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI