[Spark--编码]--如何设置日志的打印级别

以下三种方式可以选择有一种,但就经测试,最靠谱的方式是第三种结合第一种使用。

1、通过配置文件


#log4j.rootLogger=WARN,console
log4j.rootLogger=DEBUG, stdout
# console
log4j.appender.console=org.apache.log4j.ConsoleAppender
log4j.appender.console.encoding=utf-8
log4j.appender.console.layout=org.apache.log4j.PatternLayout
log4j.appender.console.layout.ConversionPattern =%-d{yyyy-MM-dd HH:mm:ss} [ %t:%r ] - [ %p ] %l %m%n

2、代码中设置

val sc: SparkContext = new SparkContext(sparkConf)
sc.setLogLevel("WARN")
//sc.setLogLevel("DEBUG")
//sc.setLogLevel("ERROR")
//sc.setLogLevel("INFO")

3、代码中使用代理设置

import org.apache.log4j.Logger

Logger.getLogger("org.apache.spark").setLevel(Level.ERROR)

Logger.getLogger("org.apache.hadoop").setLevel(Level.ERROR)

Logger.getLogger("org.apache.zookeeper").setLevel(Level.WARN)

Logger.getLogger("org.apache.hive").setLevel(Level.WARN)

扫描二维码关注公众号,回复: 3743138 查看本文章

猜你喜欢

转载自blog.csdn.net/qq_36932624/article/details/83241827