摘要:
首先对一些spark的基本知识进行了学习 spark的基本工作原理是:将spark的程序提交到spark集群上,在Hadoop的HDFS或者Hive上读取数据,读取的数据存放在各个spark的节点上,分布式的存放在多个节点上,主要在每个节点的内存上,这样可以加快速度。对节点的数据进行处理,处理后的数 阅读全文
posted @ 2020-02-01 13:07
方木Fengl
阅读(188)
评论(0)
推荐(0)

浙公网安备 33010602011771号