ELK 与 Elasticsearch 集群部署

传统日志管理问题

在项目初期的时候,大家都是赶着上线,一般来说对日志没有过多的考虑,当然日志量也不大,所以用 log4j 就够了,随着应用的越来越多,日志散落在各个服务器的 logs 文件夹下,确实有点不大方便。当我们需要日志分析的时候你大概会这么做:直接在日志文件中 grep、awk 就可以获得自己想要的信息。但是这样的方式有很多问题:

  1、日志量太大如何归档、文本搜索太慢怎么办、如何多维度查询

  2、应用太多,面临数十上百台应用时你该怎么办

  3、随意登录服务器查询log对系统的稳定性及安全性肯定有影响

  4、如果使用人员对Linux不太熟练那面对庞大的日志无从下手

猜你喜欢

转载自www.cnblogs.com/tkzL/p/9863193.html