摘要: 1.Spark 是类Hadoop MapReduce的通用并行框架, 专门用于大数据量下的迭代式计算. 是为了跟 Hadoop 配合而开发出来的,不是为了取代 Hadoop, Spark 运算比 Hadoop 的 MapReduce 框架快的原因:是因为 Hadoop 在一次 MapReduce 运 阅读全文
posted @ 2020-02-01 20:16 fsdx 阅读(114) 评论(0) 推荐(0)