spark 里from_unixtime等时区问题

spark sql默认会用当前机器的时区,在产线环境下需要设置job的时区,或者直接在conf里配置好。

在shell里可加入配置 --conf "park.sql.session.timeZone = UTC"

或者在代码里设置

spark.conf.set("spark.sql.session.timeZone", "UTC")

猜你喜欢

转载自blog.csdn.net/zhouyan8603/article/details/80598369