spark是什么
定义:Apache Spark是用于大规模数据(large-scala data)处理的统一(unifled)分析引擎
特点:对任意数据类型的数据进行自定义计算
Spark可以计算:结构化、半结构化、非结构化等各种类型的数据结构,同时也支持使用Python、Java、Scala、R以及sql语法区开发应用程序计算数据