摘要: 1.Spark,是分布式计算平台,是一个用scala语言编写的计算框架,基于内存的快速、通用、可扩展的大数据分析引擎 Hadoop,是分布式管理、存储、计算的生态系统;包括HDFS(存储)、MapReduce(计算)、Yarn(资源调度) 2. 目前,hadoop社区有几个不同的分支版本,各个版本之 阅读全文
posted @ 2020-09-19 21:54 GWDW 阅读(74) 评论(0) 推荐(0)