2018年4月13日

摘要: 由于spark on hive 问题,导致无法插入数据,暂时使用spark进行hive操作 向分区表插入数据 hive> show partitions customers;OKpartitioncity=beijingcity=shenzhenTime taken: 0.071 seconds, 阅读全文

posted @ 2018-04-13 13:37 打杂滴 阅读(578) 评论(0) 推荐(0)


博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3