摘要: 1. 阐述Hadoop生态系统中,HDFS, MapReduce, Yarn, Hbase及Spark的相互关系,为什么要引入Yarn和Spark。 (1)引用Yarn是为了解决原始Hadoop扩展性差,不支持多计算框架而提出的 (2)Spark的速度比Hadoop更快。同样的事情,Hadoop要两 阅读全文
posted @ 2021-03-12 15:58 约翰克里斯朵夫 阅读(119) 评论(0) 推荐(0) 编辑