scala实验3

1.Linux配置spark

  1. spark安装包下载

  下载链接https://spark.apache.org/downloads.html

  

  2.下载完成后,进入下载目录,解压spark

  

tar -zvxf spark-3.2.0-bin-hadoop3.2.tgz

  3.删除安装包,移动包并修改文件名

rm -rf  安装包名
mv spark-3.2.0-bin-hadoop3.2 /usr/local/spark

  4.进入spark的conf目录下

cd /usr/local/spark/conf
ll

  5.修改配置文件名字

mv spark-env.sh.template     spark-env.sh
vim spark-env.sh
在文件末尾添加

export SCALA_HOME=/usr/local/scala  scala位置
export JAVA_HOME=/usr/local/java/jdk jdk位置
export HADOOP_HOME=/usr/local/hadoop  hadoop位置
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop   
SPARK_MASTER_IP=Master11 #这里的Master11是我的主机名
SPARK_LOCAL_DIRS=/usr/local/spark   spark位置
SPARK_DRIVER_MEMORY=1G


mv workers.template slaves
vim slaves

查看主机名是否与自己的一致

  6.进入spark的sbin目录启动集群

cd /usr/local/spark/sbin
./start-all.sh

 

 

 

 

 

   7.启动spark shell

  进入spark的bin目录,启动

  

./spark-shell

 

posted @ 2022-01-06 21:44  韦德·沃兹  阅读(36)  评论(0)    收藏  举报