【Windows】Spark安装
Spark的安装前提:
- JDK安装
- Hadoop安装
- Scala安装
前面我们已经写过JDK8和Hadoop3.3.1的安装教程。本文我们就安装Scala(2.11.12),Spark(2.4.7)进行讲解。
Scala安装
官网下载地址:https://downloads.lightbend.com/scala/2.11.12/scala-2.11.12.msi
百度网盘:https://pan.baidu.com/s/1Qiy1aEndKn_Xs-zSSLaWIA?pwd=yyds
本地点击msi文件安装,安装目录:D:\softinstall\bigdata\scala
设置环境变量 %SCALA_HOME%
环境变量Path添加条目%SCALA_HOME%\bin
验证Scala是否安装成功
打开一个新的cmd窗口,输入scala:

可以看到Scala安装成功。
安装Spark
官网下载地址:https://archive.apache.org/dist/spark/spark-2.4.7/spark-2.4.7-bin-hadoop2.7.tgz
百度网盘:https://pan.baidu.com/s/1VyVLwnSvdMzSocj37xlErQ?pwd=yyds
本地解压spark文件,目录为 D:\softinstall\bigdata\spark
设置环境变量 %SPARK_HOME%
环境变量Path添加条目%SPARK_HOME%\bin
验证Spark是否安装成功
开启一个新的cmd窗口。
输入:spark-shell

显示上面的正常运行界面,表示本地的spark环境已搭建完成!

浙公网安备 33010602011771号