余老师带你学习大数据框架全栈第十二章Flume第六节简单案例之Flume实时监控目录下的多个追加文件

实时监控目录下的多个追加文件

入门案例4

实验目的:使用 Flume 监听整个目录的实时追加文件,并上传至 HDFS
实验分析:

在这里插入图片描述
在这里插入图片描述

实验步骤:
一、实验前准备步骤
1.切换到/hadoop/Flume/apache-flume-1.9.0-bin
命令:cd /hadoop/Flume/apache-flume-1.9.0-bin
在这里插入图片描述

2.新建files目录
命令:mkdir files
在这里插入图片描述
3.切换到files目录下,创建file1.txt,file2.txt
命令:cd files/
touch file1.txt
touch file2.txt
在这里插入图片描述
继续上一个实验。
二、实验
1.切换到/hadoop/Flume/apache-flume-1.9.0-bin/job 目录
命令:cd /hadoop/Flume/apache-flume-1.9.0-bin/job
在这里插入图片描述
2.新建配置文件flume-taildir-hdfs.conf
命令:vi flume-taildir-hdfs.conf
在这里插入图片描述
输入a或者i进入编辑模式

添加如下内容:

a4.sources = r4
a4.sinks = k4
a4.channels = c4

# Describe/configure the source
a4.sources.r4.type = TAILDIR
a4.sources.r4.positionFile = /hadoop/Flume/apache-flume-1.9.0-bin /tail_dir.json
a4.sources.r4.filegroups = f1
a4.sources.r4.filegroups.f1 = /hadoop/Flume/apache-flume-1.9.0-bin /files/file.*

# Describe the sink
a4.sinks.k4.type = hdfs
a4.sinks.k4.hdfs.path = hdfs://hadoop102:9000/flume/upload/%Y%m%d/%H
#上传文件的前缀
a4.sinks.k4.hdfs.filePrefix = upload- 

#是否按照时间滚动文件夹
a4.sinks.k4.hdfs.round = true
#多少时间单位创建一个新的文件夹
a4.sinks.k4.hdfs.roundValue = 1
#重新定义时间单位
a4.sinks.k4.hdfs.roundUnit = hour

#是否使用本地时间戳
a4.sinks.k4.hdfs.useLocalTimeStamp = true
#积攒多少个 Event 才 flush 到 HDFS 一次
a4.sinks.k4.hdfs.batchSize = 100
#设置文件类型,可支持压缩
a4.sinks.k4.hdfs.fileType = DataStream

#多久生成一个新的文件
a4.sinks.k4.hdfs.rollInterval = 60
#设置每个文件的滚动大小大概是 128M 
a4.sinks.k4.hdfs.rollSize = 134217700 
#文件的滚动与 Event 数量无关
a4.sinks.k4.hdfs.rollCount = 0

# Use a channel which buffers events in memory
a4.channels.c4.type = memory
a4.channels.c4.capacity = 1000
a4.channels.c4.transactionCapacity = 100
# Bind the source and sink to the channel
a4.sources.r4.channels = c4
a4.sinks.k4.channel = c4

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
点击Ecs退出编辑,:wq保存退出

  1. 返回上一级目录,启动监控文件夹命令
    命令:cd ..
    flume-ng agent --conf conf/ --name a4 --conf-file job/flume-taildir-hdfs.conf
    在这里插入图片描述

4.新打开一个命令终端,切换到hadoop用户下
命令:su - hadoop 密码:Yhf_1018
切换到cd /hadoop/Flume/apache-flume-1.9.0-bin/files目录下
命令:cd /hadoop/Flume/apache-flume-1.9.0-bin/files

向file1.txt,file2.txt 追加内容
命令:echo hello >> file1.txt
echo songshu >> file2.txt
在这里插入图片描述

5.在HDFS上查看数据
重新打开一个命令终端,再hadoop用户下
命令:hdfs dfs -ls /flume/upload
在这里插入图片描述

命令:hdfs dfs -ls /flume/upload/20210201在这里插入图片描述

命令:hdfs dfs -ls /flume/upload/20210201/22
在这里插入图片描述

命令:hdfs dfs -cat /flume/upload/20210201/22/upload-.1612190485267
在这里插入图片描述
详细学习内容可观看Spark快速大数据处理扫一扫~~~或者引擎搜索Spark余海峰
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/weixin_45810046/article/details/113741796