摘要: 一、安装Spark 1.检查基础环境hadoop,jdk echo $JAVA_HOME #检查jdk的路径和版本 start-dfs.sh #启动Hadoop jps #检查 2.下载spark 已安装 3.解压,文件夹重命名、权限 已安装 4.配置文件 cd /usr/local/spark/p 阅读全文
posted @ 2022-03-02 17:35 yong权 阅读(107) 评论(0) 推荐(0) 编辑