2022年3月4日
摘要: 一、安装Spark 1.检查基础环境hadoop.jdk java -version #查看jdk的安装以及版本 jps #查看当前环境的节点 start-all.sh #开启hadoop,因为我在本次实验中使用的是分布式模式,所以节点分别在master上和slave1,同时因为在配置环境变量中进行 阅读全文
posted @ 2022-03-04 14:02 花开花落亦南浔丶 阅读(29) 评论(0) 推荐(0)