摘要: spark是什么 定义:Apache Spark是用于大规模数据(large-scala data)处理的统一(unifled)分析引擎 特点:对任意数据类型的数据进行自定义计算 Spark可以计算:结构化、半结构化、非结构化等各种类型的数据结构,同时也支持使用Python、Java、Scala、R 阅读全文
posted @ 2024-01-10 09:13 代不动码 阅读(12) 评论(0) 推荐(0)