摘要: 一、安装Spark 1、检查基础环境hadoop,jdk echo $JAVA_HOME java -version start-dfs.sh jps hadoop version 2、配置文件 cp ./conf/spark-env.sh.template ./conf/spark-env.sh 阅读全文
posted @ 2022-03-02 11:27 Ls1ion 阅读(58) 评论(0) 推荐(0)