摘要: 一、安装Spark 1. 检查基础环境hadoop,jdk 未配置好hadoop,去~/.bashrc添加环境变量 export PATH=$PATH:$HADOOP_HOME/sbin 2. 环境变量 添加spark环境变量 export SPARK_HOME=/usr/local/spark e 阅读全文
posted @ 2022-03-02 18:53 紫陌凛风 阅读(39) 评论(0) 推荐(0) 编辑