摘要:
1、为什么要引入Yarn和Spark。 (1)现有的hadoop生态系统中存在的问题 1)使用mapreduce进行批量离线分析; 2)使用hive进行历史数据的分析; 3)使用hbase进行实时数据的查询; 4)使用storm进行实时的流处理; (2)选用spark的原因 1) 应用于流式计算的S 阅读全文
posted @ 2021-03-14 22:51
zack-zheng
阅读(35)
评论(0)
推荐(0)
浙公网安备 33010602011771号