随笔分类 - Spark
摘要:配置完spark之后,使用spark实现wordcount,这一部分完全参考《深入理解Spark:核心思想与源码分析》 依然使用hadoop wordcountTest的那几个txt文件 进入spark的bin目录,打开spark-shell 在打开的scala命令行中依次输入以下几个语句: 部分w
阅读全文
摘要:参考《深入理解Spark:核心思想与源码分析》 Spark使用Scala进行编写,而Scala又是基于JVM运行,所以需要先安装JDK,这个不再赘述。 1.安装Scala 安装获取Scala: 将下载的文件移动到自家想要放置的目录。 修改压缩文件的权限为755(所有者读写执行,同组成员读和执行,其他
阅读全文

浙公网安备 33010602011771号