摘要:
在Spark中,每一个RDD是对于数据集在某一状态下的表现形式,比如说:map、filter、group by等都算一次操作,这个状态有可能是从前一状态转换而来的;因此换句话说一个RDD可能与之前的RDD(s)有依赖关系;RDD之间存在依赖关系;根据依赖关系的不同,可以将RDD分成两种不同的类型:宽... 阅读全文
posted @ 2014-08-21 15:57
瞌睡中的葡萄虎
阅读(1338)
评论(0)
推荐(1)
浙公网安备 33010602011771号