flume配置参数的意义

1.监控端口数据:

flume启动:

[bingo@hadoop102 flume]$ bin/flume-ng agent --conf conf/ --name a1 --conf-file job/flume-telnet-logger.conf -Dflume.root.logger=INFO,console

参数说明:

--conf conf/  :表示配置文件存储在conf/目录

--name a1 :表示给agent起名为a1

--conf-file job/flume-telnet.conf :flume本次启动读取的配置文件是在job文件夹下的flume-telnet.conf文件。

-Dflume.root.logger==INFO,console :-D表示flume运行时动态修改flume.root.logger参数属性值,并将控制台日志打印级别设置为INFO级别。日志级别包括:log、info、warn、error。

2.实时读取本地文件导HDFS:

执行监控配置

[bingo@hadoop102 flume]$ bin/flume-ng agent --conf conf/ --name a2 --conf-file job/flume-file-hdfs.conf

开启HadoopHive操作Hive产生日志

[bingo@hadoop102 hadoop-2.7.2]$ sbin/start-dfs.sh

[bingo@hadoop103 hadoop-2.7.2]$ sbin/start-yarn.sh

[bingo@hadoop102 hive]$ bin/hive
hive (default)>

 

3.实时读取本地目录文件导HDFS:

启动监控文件夹命令

[bingo@hadoop102 flume]$ bin/flume-ng agent --conf conf/ --name a3 --conf-file job/flume-dir-hdfs.conf

说明: 在使用Spooling Directory Source

1) 不要在监控目录中创建并持续修改文件

2) 上传完成的文件会以.COMPLETED结尾

3) 被监控文件夹每500毫秒扫描一次文件变动

3. upload文件夹中添加文件

在/opt/module/flume目录下创建upload文件

[bingo@hadoop102 flume]$ mkdir upload

向upload文件夹中添加文件

[bingo@hadoop102 upload]$ touch atguigu.txt

[bingo@hadoop102 upload]$ touch atguigu.tmp

[bingo@hadoop102 upload]$ touch atguigu.log

猜你喜欢

转载自www.cnblogs.com/alexzhang92/p/10884211.html
今日推荐