摘要: 一、安装Spark 1、检查基础环境hadoop,jdk 2、下载spark 3、解压,文件夹重命名、权限 4、配置文件 配置spark的classpath $ cd /usr/local/spark $ cp ./conf/spark-env.sh.template ./conf/spark-en 阅读全文
posted @ 2022-03-06 23:22 版田一giao 阅读(39) 评论(0) 推荐(0) 编辑