摘要:
由于spark on hive 问题,导致无法插入数据,暂时使用spark进行hive操作 向分区表插入数据 hive> show partitions customers;OKpartitioncity=beijingcity=shenzhenTime taken: 0.071 seconds, 阅读全文
posted @ 2018-04-13 13:37 打杂滴 阅读(578) 评论(0) 推荐(0)
posted @ 2018-04-13 13:37 打杂滴 阅读(578) 评论(0) 推荐(0)