摘要:        
一、安装Spark 1.检查基础环境hadoop.jdk java -version #查看jdk的安装以及版本 jps #查看当前环境的节点 start-all.sh #开启hadoop,因为我在本次实验中使用的是分布式模式,所以节点分别在master上和slave1,同时因为在配置环境变量中进行    阅读全文
        
            posted @ 2022-03-04 14:02
花开花落亦南浔丶
阅读(29)
评论(0)
推荐(0)
        
                    
                
        
浙公网安备 33010602011771号