Loading


  2020年2月1日
摘要: Spark Spark是个通用的集群计算框架,通过将大量数据集计算任务分配到多台计算机上,提供高效内存计算。如果你熟悉Hadoop,那么你知道分布式计算框架要解决两个问题:如何分发数据和如何分发计算。Hadoop使用HDFS来解决分布式数据问题,MapReduce计算范式提供有效的分布式计算。类似的 阅读全文
posted @ 2020-02-01 18:56 一氓 阅读(104) 评论(0) 推荐(0)