2018年6月20日

摘要: scala> import org.apache.spark.SparkContext import org.apache.spark.SparkContext scala> import org.apache.spark.SparkConf import org.apache.spark.Spar 阅读全文

posted @ 2018-06-20 15:52 打杂滴 阅读(218) 评论(0) 推荐(0)

摘要: RDD是Spark建立之初的核心API。RDD是不可变分布式弹性数据集,在Spark集群中可跨节点分区,并提供分布式low-level API来操作RDD,包括transformation和action。 RDD(Resilient Distributed Dataset)叫做弹性分布式数据集,是S 阅读全文

posted @ 2018-06-20 14:29 打杂滴 阅读(413) 评论(0) 推荐(0)


博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3