摘要: 记录一下配置多节点Hadoop和Spark的过程。 建立三个节点node,分别是node0,node1,node2.其中node0作为master节点。三台云虚拟机均为Ubuntu 16版本,Hadoop为3.1.4版本,Spark为2.4.7版本。 Hadoop 首先是下载和配置Hadoop. 第 阅读全文
posted @ 2020-09-18 04:07 天靖居士 阅读(454) 评论(0) 推荐(0) 编辑