spark SQL中时区问题
今天在DBVeaver中是使用hive运行sql正常,到了sparksql中运行,就变成了+8小时。
为了解决时区问题,需要在spark的配置中添加以下设置,具体时区根据实际情况来。
conf.set("spark.sql.session.timeZone","UTC")
本文来自博客园,作者:硅谷工具人,转载请注明原文链接:https://www.cnblogs.com/30go/p/16183124.html
今天在DBVeaver中是使用hive运行sql正常,到了sparksql中运行,就变成了+8小时。
为了解决时区问题,需要在spark的配置中添加以下设置,具体时区根据实际情况来。
conf.set("spark.sql.session.timeZone","UTC")
本文来自博客园,作者:硅谷工具人,转载请注明原文链接:https://www.cnblogs.com/30go/p/16183124.html