摘要:
1.Spark SQL出现的 原因是什么? 答:(1)Shark执行计划优化完全依赖于Hive,不便于添加新的优化策略。 (2)Spark是线程级并行,MapReduce是进程级并行,因此,Spark在兼容Hive的实现上存在线程安全问题,导致Shark不得不使用另外一套独立维护的、打了补丁的Hiv 阅读全文
posted @ 2021-05-09 20:44
Guhuanyu
阅读(58)
评论(0)
推荐(0)