kafka 系统日志定时清理

版权声明:坚持写出有意义有价值的文章,不做无良的文章搬砖工 https://blog.csdn.net/aa5305123/article/details/84068939

每天定时清理kafka集群server端3天前的系统日志

写清理脚本,:

在/data1/kafka/kafka 目录下新建文件 auto-delete-kafka-3days-ago-log.sh 内容如下:

#!/bin/sh

find /data1/kafka/kafka/logs/ -mtime +3 -name "*.log" -exec rm -rf {} \;

注意:这个地方不要漏了 最后面的 分号 ;

命令末尾是 : 一对大括号+空格 +斜杠\和分号;  一个都不能少和错。

crontab中加入定时任务,每天凌晨30分执行:crontab -e

输入:

#每天凌晨30分定时清理kafka集群三天前的log日志

30 0 * * * /data1/kafka/kafka/auto-delete-kafka-3days-ago-log.sh

其实,这里有坑。看到这个的朋友,可以试试有没有效果,删除的对不对。欢迎留言寻找正确的脚步。

清理脚本参考:https://www.cnblogs.com/think-in-java/p/5712197.html

1.删除文件命令:

find 对应目录 -mtime +天数 -name "文件名" -exec rm -rf {} \;

实例命令:

find /opt/soft/log/ -mtime +30 -name "*.log" -exec rm -rf {} \;

说明:

将/opt/soft/log/目录下所有30天前带".log"的文件删除。具体参数说明如下:

find:linux的查找命令,用户查找指定条件的文件;

/opt/soft/log/:想要进行清理的任意目录;

-mtime:标准语句写法;

+30:查找30天前的文件,这里用数字代表天数;

"*.log":希望查找的数据类型,"*.jpg"表示查找扩展名为jpg的所有文件,"*"表示查找所有文件,这个可以灵活运用,举一反三;

-exec:固定写法;

rm -rf:强制删除文件,包括目录;

{} \; :固定写法,一对大括号+空格+\+; 

2.计划任务:

若嫌每次手动执行语句太麻烦,可以将这小语句写到一个可执行shell脚本文件中,再设置cron调度执行,那就可以让系统自动去清理相关文件。

2.1创建shell:

touch /opt/soft/bin/auto-del-30-days-ago-log.sh

chmod +x auto-del-30-days-ago-log.sh

新建一个可执行文件auto-del-30-days-ago-log.sh,并分配可运行权限

2.2编辑shell脚本:

vi auto-del-30-days-ago-log.sh

编辑auto-del-30-days-ago-log.sh文件如下:

#!/bin/sh

find /opt/soft/log/ -mtime +30 -name "*.log" -exec rm -rf {} \;

ok,保存退出(:wq)。

2.3计划任务:

#crontab -e

将auto-del-30-days-ago-log.sh执行脚本加入到系统计划任务,到点自动执行

输入:

10 0 * * * /opt/soft/log/auto-del-7-days-ago-log.sh

这里的设置是每天凌晨0点10分执行auto-del-7-days-ago-log.sh文件进行数据清理任务了。

完成以上三步,你就再也不每天惦记是否硬盘空间满了,该清理日志文件了,再也不会受到服务器硬盘空间不足的报警信息了,放心的去看书喝咖啡去吧!

猜你喜欢

转载自blog.csdn.net/aa5305123/article/details/84068939