Loading


  2020年2月6日
摘要: 安装spark的环境, 亲测可用。 Spark是Hadoop的子项目。 因此,最好将Spark安装到基于Linux的系统中。 以下步骤说明如何安装Apache Spark。 步骤1:验证Java安装 Java安装是安装Spark的强制性要求之一。 尝试使用以下命令验证JAVA版本。 $java -v 阅读全文
posted @ 2020-02-06 19:17 一氓 阅读(106) 评论(0) 推荐(0)