会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
我叫周文阳
博客园
首页
新随笔
联系
管理
订阅
2021年5月8日
【spark】cache不一定使用的场景
摘要: 背景 spark的transform是lazy模式的,只有当action时才会触发真正的执行。大部分情况下,如果某个df、rdd下游有多个链路,为了避免重复执行,一般会对该算子进行cache 场景 在某个stage阶段,存在一个RDD,transform完成后可能存在数亿的结果 在调试阶段,我们需要
阅读全文
posted @ 2021-05-08 10:38 周周周文阳
阅读(238)
评论(0)
推荐(0)
公告