温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

消息队列之kafka(整合flume)

发布时间:2020-08-03 08:30:49 来源:网络 阅读:449 作者:原生zzy 栏目:大数据

补充:在flume的的lib中已经有了kafka的依赖包,所以直接使用flume的配置文件即可。
这里举出kafka+flume的典型场景:(Kafka-----sink

source :netcat
channel:memory
sink:kafka sink

netcat-kafka.conf

#别名
a1.sources=s1
a1.channels=c1
a1.sinks=k1

#source
a1.sources.s1.type=netcat
a1.sources.s1.bind=192.168.5.0
a1.sources.s1.port=6666

#channel
a1.channels.c1.type=memory

#sink
a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink
a1.sinks.k1.kafka.topic = kafka_test  #传入的的主题
a1.sinks.k1.kafka.bootstrap.servers = hadoop02:9092  #kafka集群入口
a1.sinks.k1.kafka.producer.acks = 1   #消息确认级别
#指定压缩的类型
a1.sinks.k1.kafka.producer.compression.type = snappy

a1.sources.s1.channels=c1
a1.sinks.k1.channel=c1

最后启动flume的配置文件即可:
bin/flume-ng agent -n a1 -c conf -f conf/myconf/netcat-kafka.conf -Dflume.root.logger=INFO,console

官网地址:http://flume.apache.org/FlumeUserGuide.html#kafka-sink

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI