摘要:
1.1Spark是什么定义:ApacheSpark是用于大规模数据(large-scala data) 处理的统一(unified) 分析引擎 Soark 借鉴 MnReduce 思相发展而来,保图了其价布式并行计算的代占开改进了其明显的缺路。让中间数样存修在内存中接高了运行速度、并提供丰富的操作数 阅读全文
posted @ 2024-01-10 21:17
嘎嘎鸭1
阅读(49)
评论(0)
推荐(0)
|
摘要:
1.1Spark是什么定义:ApacheSpark是用于大规模数据(large-scala data) 处理的统一(unified) 分析引擎 Soark 借鉴 MnReduce 思相发展而来,保图了其价布式并行计算的代占开改进了其明显的缺路。让中间数样存修在内存中接高了运行速度、并提供丰富的操作数 阅读全文
posted @ 2024-01-10 21:17
嘎嘎鸭1
阅读(49)
评论(0)
推荐(0)
|