打赏

[Spark] pyspark insertInto 去重插入数据表

pyspark有个bug, 虽然下面代码写了 write.mode("overwrite")但是不生效

spark.conf.set("hive.exec.dynamic.partition.mode", "constrict")
db_df.repartition(1).write.mode("overwrite").insertInto("TABLE")

所以会导致TABLE内数据有重复的现象。

如何去重插入数据表?

在insertInto("TABLE", True) 加上True参数即可,表示的同样是"isOverwrite".

posted @ 2021-02-22 15:04  listenviolet  阅读(1507)  评论(0编辑  收藏  举报