qwb0614

  博客园  :: 首页  :: 新随笔  :: 联系 :: 订阅 订阅  :: 管理

2024年1月10日

摘要: 1.1Spark是什么定义:ApacheSpark是用于大规模数据(large-scala data) 处理的统一(unified) 分析引擎 Soark 借鉴 MnReduce 思相发展而来,保图了其价布式并行计算的代占开改进了其明显的缺路。让中间数样存修在内存中接高了运行速度、并提供丰富的操作数 阅读全文
posted @ 2024-01-10 21:17 嘎嘎鸭1 阅读(49) 评论(0) 推荐(0)