摘要:
解决办法参考: HDP3.1中spark2.3无法读取Hive3.0数据 问题描述:ambari部署的spark和hive,在sparksql中执行insert into table xxx partition(dt='xxx') select xxx from xxx where dt='xxx' 阅读全文
摘要:
若DataFrame为简单的二维表,则可以借助RDD的zipWithIndex实现索引列添加。 scala> val df = spark.createDataFrame(Seq(("ming",20,1234),("hong",19,1235),("zhi",21,1236))) scala> d 阅读全文