摘要: 一、安装并配置Spark 1.首先检查一下java和hadoop的环境 2.下载spark 3.解压spark安装包,对文件夹重命名,复制配置文件 4.对配置文件进行修改 1.对/usr/local/spark/conf/spark-env.sh的配置文件进行修改,加入 export SPARK_D 阅读全文
posted @ 2022-03-05 14:55 牛蛙点点 阅读(50) 评论(0) 推荐(0) 编辑