念念不忘
必有回响

如何将Flume与kafka进行整合

自从Flume1.6开始,新增了对Kafka的支持,极大地提升了Flume的采集能力。避免后端因热点问题导致kafka的channel爆满而无法采集数据。
本篇介绍使用Flume当前最新版本1.8与Kafka的结合使用。

基本环境

  • Kafka (192.168.156.101:9092)
  • Zookeeper(192.168.156.101:2181)
  • JDK1.8

安装Flume

进入apache-flume-1.8.0-bin目录,在conf路径中新增配置文件flume.properties(名称随意)。

新增如下配置:

启动flume

apache-flume-1.8.0-bin中执行如下命令启动flume。

注意此处的-f-n-c参数:

  • -f 表示配置文件的路径
  • -n agent的名称,与配置文件中一直
  • -c 配置文件所在的路径

此时,便已经成功启动了flume,source为HTTP,端口为9000,sink为Kafka,channel默认在内存,当然也可以将channel配置为Kafka Channel。

使用Rest Client给9000端口发送数据,然后在kafka消费者端进行查看。

启动kafka消费端

然后给flume发送如下测试数据

此时在kafka消费者那一侧就可以发现如下信息:

写的比较乱,有空在整理。

赞(0) 打赏
未经允许不得转载:码农志 » 如何将Flume与kafka进行整合
分享到: 更多 (0)

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏