Spark RDD 的宽依赖和窄依赖 -- (视频笔记)

窄依赖 narrow dependency

map,filter,union ,

join(co-partitioned)制定了父RDD中的分片具体交给哪个唯一的子RDD

并行的,RDD分片是独立的。

只依赖相同ID的分片

range分片

one to dependency

range dependency

内部可以previously computed partition

可以将计算合并,可以极大的提升效率,编写的时候可能是多个函数,执行的时候合并成一个函数,极大的减少了零碎内存或磁盘资源。

 

宽依赖

groupByKey,join with inputs not co-partitioned

多个子RDD的分片会依赖同一个父RDD分片

或者说同一个父RDD的分片都有多个子RDD的分片使用。

会产生shuffle。

shuffle dependency

【hash shuffle,sort shuffle】

 

 

posted @ 2015-12-29 15:31  逸新  阅读(4970)  评论(0编辑  收藏  举报